"Datum";"Beginn";"Ende";"Ort";"ID";"Format";"Titel_Session";"Chair";"Titel_Beitrag";"Autorin/Autor_1";"Affilation_1";"Land_1";"Autorin/Autor_2";"Affilation_2";"Land_2";"Autorin/Autor_3";"Affilation_3";"Land_3";"Autorin/Autor_4";"Affilation_4";"Land_4";"Autorin/Autor_5";"Affilation_5";"Land_5";"Autorin/Autor_6";"Affilation_6";"Land_6";"Autorin/Autor_7";"Affilation_7";"Land_7";"Autorin/Autor_8";"Affilation_8";"Land_8";"Autorin/Autor_9";"Affilation_9";"Land_9";"Autorin/Autor_10";"Affilation_10";"Land_10";"Zusammenfassung" "25.03.2019";"09:00";"10:30";"P6";"Workshop_264";"Workshop";;;"Workshop Texterkennung mit Ocropy - Vom Bild zum Text";"Robert Nasarek";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";"Andreas Müller";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"!!!Workshopteilnehmer*innen müssen ein Notebook mit Administratorenrechten mitbringen!!!Die optische Zeichenerkennung (engl. Optical Character Recognition – OCR) von historischen Texten weißt oftmals niedrige Erkennungsraten auf. Mit einem gekonnten Preprozessing und ocropy (auch ocropus), einem modular aufgebauten Kommandozeilenprogramm auf Basis eines neuronalen Netzes, ist es möglich, deutlich bessere Ergebnisse zu erzielen. Ocropy ist in Python geschrieben und enthält u. a. Module zur Binarisierung (Erzeugung einer Rastergrafik), Segmentierung (Dokumentaufspaltung in Zeilen), der Korrektur fehlerhafter Erkennungstexte, dem Training neuer Zeichen und natürlich zur Erkennung von Dokumenten. Als kommondozeilenbasiertes Programm für die Linux-Console setzt ocropy die Einstiegshürde für viele interessierte Nutzer*innen erhöht an. Im Workshop werden diese Hürden abgebaut, indem er alle Schritte „from zero to recognised textfile“ nachvollziehbar und zum Mitmachen aufzeigt. Den Teilnehmer*innen des Workshops werden alle benötigten Informationen und Handgriffe zur Verfügung gestellt, um selbstständig Frakturschriften (oder andere Schriftarten) durch ocropy erkennen zu lassen." "25.03.2019";"09:00";"10:30";"P7";"Workshop_205";"Workshop";;;"Workshop Versionskontrolle mit Git";"Stephan Druskat";"Humboldt-Universität zu Berlin";"Deutschland";"Annika Rockenberger";"Nasjonalbiblioteket";"Norwegen";;;;;;;;;;;;;;;;;;;;;;;;;"In zwei jeweils halbtägigen Workshops erlernen Teilnehmende ohne oder mit wenigen Vorkenntnissen grundlegende Kulturtechniken der digitalen Forschung: Versionskontrolle und kollaboratives verteiltes Arbeiten. Der Teilworkshop ""Versionskontrolle mit Git"" führt auf Grundlage der Software Carpentry (https://software-carpentry.org/) in die Arbeit mit dem Versionskontrollsystem Git (https://git-scm.com/) ein. Dabei unterstützen geleitete Übungen und häufige formative Evaluationen die aktive Aneignung zentraler Konzepte und Prozesse wie Änderungsverfolgung und -historie, Konflikte und deren Auflösung. Der Workshop befähigt Teilnehmende zur Arbeit mit Git auf der Kommandozeile. Der zweite Teilworkshop führt in die Arbeit mit GitHub (https://github.com/) ein und vermittelt die Grundlagen der verteilten Zusammenarbeit an Dokumenten über Methoden wie Issues und Pull Requests. Dabei wird ausschließlich auf die Weboberfläche der Codeplattform zurückgegriffen, so dass keine weiteren Vorkenntnisse notwendig sind. Die Teilworkshops erlauben in Kombination einen fundierten Einstieg in Versionskontrolle und vermitteln die konkrete Arbeit mit den derzeit am weitesten verbreiteten Instrumenten dafür, Git und GitHub, können aber auch einzeln besucht werden." "25.03.2019";"09:00";"10:30";"P10";"Workshop_210";"Workshop";;;"Workshop eXist-db und VueJS für dynamische UI-Komponenten";"Oliver Pohl";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Teodora Dogaru";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Jonas Müller-Laackman";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"In dem Workshop sollen Teilnehmende lernen, wie man mit der XML-Datenbank eXist-db Daten nach JSON serialisiert und anhand der ausgelieferten JSON-Daten mit Hilfe von vue.js reaktive HTML-Komponenten erstellt. Als praktisches Beispiel für den Workshop werden die Daten und der Quellcode von quoteSalute zur Veranschaulichung benutzt. quoteSalute aggregiert Grußformeln aus verschiedenen digitalen Briefeditionen, bereitet diese auf, sodass NutzerInnen Briefabschlüsse von z.B. Alexander von Humboldt, Friedrich Schleiermacher oder Anna Gräfin von Lehndorff über einen Klick in ihre eigene E-Mail-Korrespondenz einfügen können. Die Daten dafür werden in einer eXist-db-Instanz als TEI-XML vorgehalten und die Benutzeroberfläche über Vue.js realisiert. Nach dem Workshop sollen die Teilnehmenden in der Lage sein einfache, reaktive Vue.js-Applikation zu programmieren und dessen Aufbau erklären zu können, diese Vue.js-Applikation an eine JSON-REST-Schnittstelle anzubinden, und das grundlegende Prinzip im Zusammenspiel von Backend - JSON-API - JavaScript-Frontend auch auf andere Technologien und Frameworks übertragen zu können." "25.03.2019";"09:00";"10:30";"P11|P12";"Workshop_111";"Workshop";;;"Workshop Barcamp: Digitales Publizieren zwischen Experiment und Etablierung";"Timo Steyer";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Katrin Neumann";"Max Weber Stiftung";"Deutschland";"Melanie Seltmann";"Universität Wien";"Österreich";"Walter Scholger";"Universität Graz";"Österreich";;;;;;;;;;;;;;;;;;;"Das digitale Publizieren hat sich nicht zuletzt durch die Selbstverständlichkeit, mit der WissenschaftlerInnen digitale Ressourcen nutzen, und durch die Etablierung der Digital Humanities zu einem festen Bestandteil der Wissenschaftskommunikation entwickelt. Doch längst sind noch nicht alle Formen bzw. Formate geklärt und nicht für alle Bereiche existieren Standards. Für nicht wenige WissenschaftlerInnen stellt das digitale Publizieren nach wie vor eine terra incognita dar und die Bedenken, sich trotz der evidenten Vorteile von digitalen Publikationen von den traditionellen Printmedien zu lösen, bestehen nach wie vor. Die AG Digitales Publizieren möchte der interessierten Community die Möglichkeit bieten, gemeinsam aktuelle Fragen und Trends im Bereich des digitalen Publizieren zu diskutieren und sich offen auszutauschen. Um diesen Austausch zu fördern, soll der Workshop im Format eines Barcamps durchgeführt werden." "25.03.2019";"09:00";"10:30";"P15";"Workshop_235";"Workshop";;;"Workshop Text Mining mit Open Semantic (Desktop) Search - eine digitale Such- & Annotationsumgebung für informationsgetriebene Fragestellungen";"Jörg Wettlaufer";"Georg-August-Universität Göttingen";"Deutschland";"Stefan Ziehe";"Georg-August-Universität Göttingen";"Deutschland";"Markus Mandalka";"Berlin";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"In den Geisteswissenschaften sind wir bei vielen Fragestellungen auf die Sammlung und das Zusammenstellen von (teilweise sehr großen) Informationsmengen angewiesen, aus denen relevante Details herausgefiltert und anschließend in neue Zusammenhänge gesetzt werden müssen. Dieser informationsgetriebene Ansatz geisteswissenschaftlichen Arbeitens ist nicht weit von den Aufgaben entfernt, die Journalisten heute für ihre Arbeit im digitalen Zeitalter lösen müssen. In diesem Kontext wurde „Open Semantic Desktop Search“ (OSDS) von Markus Mandalka (Berlin) entwickelt, ein Recherche Tool bzw. eine Enterprise Suchmaschine für die semantische und explorative Suche in großen Dokumentenmengen, das auch Textanalyse und Text Mining mit offenen Standards für Linked Open Data bietet: http://www.opensemanticsearch.org. Ziel des Workshops ist es die TeilnehmerInnen in die Lage zu versetzen, OSDS eigenständig für die Beantwortung wissenschaftlicher Fragestellungen, z.B. aus dem Bereich der digitalen Geschichtswissenschaften, zu verwenden und für ihre jeweiligen Bedürfnisse zu konfigurieren bzw. zu erweitern." "25.03.2019";"09:00";"10:30";"Akademie der Wissenschaften und der Literatur | Mainz";"Workshop_266";"Workshop";;;"Workshop Graphentechnologien in den Digital Humanities: Methoden und Instrumente zur Modellierung, Transfortmation, Annotation und Analyse";"Julian Jarosch";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Andreas Kuczera";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Torsten Schrade";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Tariq Yousef";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;"Graphtechnologien bieten insbesondere in den DH neue Perspektiven zur Aufbereitung und Analyse von heterogenen Daten. Viele bestehende XML-Forschungsdaten enthalten bereits implizit semantische Aussagen, die als Graph gelesen, mit weiteren Datenbeständen synthetisiert, und zusammen analysiert werden können. Inzwischen existieren Werkzeuge, die verschiedene Zugriffe auf dieses Potential zugänglich machen – von der deskriptiven Extraktion von RDF aus XML bis zur verlustlosen Migration von Datenbeständen zu text-as-a-graph. Dieser Workshop bietet eine praktische Einführung in vier Werkzeuge, die X-Technologien und Graphtechnologien einander näher bringen." "25.03.2019";"11:00";"12:30";"P6";"Workshop_264";"Workshop";;;"Workshop Fortsetzung: Texterkennung mit Ocropy - Vom Bild zum Text";"Robert Nasarek";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";"Andreas Müller";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"!!!Workshopteilnehmer*innen müssen ein Notebook mit Administratorenrechten mitbringen!!!Die optische Zeichenerkennung (engl. Optical Character Recognition – OCR) von historischen Texten weißt oftmals niedrige Erkennungsraten auf. Mit einem gekonnten Preprozessing und ocropy (auch ocropus), einem modular aufgebauten Kommandozeilenprogramm auf Basis eines neuronalen Netzes, ist es möglich, deutlich bessere Ergebnisse zu erzielen. Ocropy ist in Python geschrieben und enthält u. a. Module zur Binarisierung (Erzeugung einer Rastergrafik), Segmentierung (Dokumentaufspaltung in Zeilen), der Korrektur fehlerhafter Erkennungstexte, dem Training neuer Zeichen und natürlich zur Erkennung von Dokumenten. Als kommondozeilenbasiertes Programm für die Linux-Console setzt ocropy die Einstiegshürde für viele interessierte Nutzer*innen erhöht an. Im Workshop werden diese Hürden abgebaut, indem er alle Schritte „from zero to recognised textfile“ nachvollziehbar und zum Mitmachen aufzeigt. Den Teilnehmer*innen des Workshops werden alle benötigten Informationen und Handgriffe zur Verfügung gestellt, um selbstständig Frakturschriften (oder andere Schriftarten) durch ocropy erkennen zu lassen." "25.03.2019";"11:00";"12:30";"P7";"Workshop_205";"Workshop";;;"Workshop Fortsetzung: Versionskontrolle mit Git";"Stephan Druskat";"Humboldt-Universität zu Berlin";"Deutschland";"Annika Rockenberger";"Nasjonalbiblioteket";"Norwegen";;;;;;;;;;;;;;;;;;;;;;;;;"In zwei jeweils halbtägigen Workshops erlernen Teilnehmende ohne oder mit wenigen Vorkenntnissen grundlegende Kulturtechniken der digitalen Forschung: Versionskontrolle und kollaboratives verteiltes Arbeiten. Der Teilworkshop ""Versionskontrolle mit Git"" führt auf Grundlage der Software Carpentry (https://software-carpentry.org/) in die Arbeit mit dem Versionskontrollsystem Git (https://git-scm.com/) ein. Dabei unterstützen geleitete Übungen und häufige formative Evaluationen die aktive Aneignung zentraler Konzepte und Prozesse wie Änderungsverfolgung und -historie, Konflikte und deren Auflösung. Der Workshop befähigt Teilnehmende zur Arbeit mit Git auf der Kommandozeile. Der zweite Teilworkshop führt in die Arbeit mit GitHub (https://github.com/) ein und vermittelt die Grundlagen der verteilten Zusammenarbeit an Dokumenten über Methoden wie Issues und Pull Requests. Dabei wird ausschließlich auf die Weboberfläche der Codeplattform zurückgegriffen, so dass keine weiteren Vorkenntnisse notwendig sind. Die Teilworkshops erlauben in Kombination einen fundierten Einstieg in Versionskontrolle und vermitteln die konkrete Arbeit mit den derzeit am weitesten verbreiteten Instrumenten dafür, Git und GitHub, können aber auch einzeln besucht werden." "25.03.2019";"11:00";"12:30";"P10";"Workshop_210";"Workshop";;;"Workshop Fortsetzung: eXist-db und VueJS für dynamische UI-Komponenten";"Oliver Pohl";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Teodora Dogaru";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Jonas Müller-Laackman";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"In dem Workshop sollen Teilnehmende lernen, wie man mit der XML-Datenbank eXist-db Daten nach JSON serialisiert und anhand der ausgelieferten JSON-Daten mit Hilfe von vue.js reaktive HTML-Komponenten erstellt. Als praktisches Beispiel für den Workshop werden die Daten und der Quellcode von quoteSalute zur Veranschaulichung benutzt. quoteSalute aggregiert Grußformeln aus verschiedenen digitalen Briefeditionen, bereitet diese auf, sodass NutzerInnen Briefabschlüsse von z.B. Alexander von Humboldt, Friedrich Schleiermacher oder Anna Gräfin von Lehndorff über einen Klick in ihre eigene E-Mail-Korrespondenz einfügen können. Die Daten dafür werden in einer eXist-db-Instanz als TEI-XML vorgehalten und die Benutzeroberfläche über Vue.js realisiert. Nach dem Workshop sollen die Teilnehmenden in der Lage sein einfache, reaktive Vue.js-Applikation zu programmieren und dessen Aufbau erklären zu können, diese Vue.js-Applikation an eine JSON-REST-Schnittstelle anzubinden, und das grundlegende Prinzip im Zusammenspiel von Backend - JSON-API - JavaScript-Frontend auch auf andere Technologien und Frameworks übertragen zu können." "25.03.2019";"11:00";"12:30";"P11|P12";"Workshop_111";"Workshop";;;"Workshop Fortsetzung Barcamp: Digitales Publizieren zwischen Experiment und Etablierung";"Timo Steyer";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Katrin Neumann";"Max Weber Stiftung";"Deutschland";"Melanie Seltmann";"Universität Wien";"Österreich";"Walter Scholger";"Universität Graz";"Österreich";;;;;;;;;;;;;;;;;;;"Das digitale Publizieren hat sich nicht zuletzt durch die Selbstverständlichkeit, mit der WissenschaftlerInnen digitale Ressourcen nutzen, und durch die Etablierung der Digital Humanities zu einem festen Bestandteil der Wissenschaftskommunikation entwickelt. Doch längst sind noch nicht alle Formen bzw. Formate geklärt und nicht für alle Bereiche existieren Standards. Für nicht wenige WissenschaftlerInnen stellt das digitale Publizieren nach wie vor eine terra incognita dar und die Bedenken, sich trotz der evidenten Vorteile von digitalen Publikationen von den traditionellen Printmedien zu lösen, bestehen nach wie vor. Die AG Digitales Publizieren möchte der interessierten Community die Möglichkeit bieten, gemeinsam aktuelle Fragen und Trends im Bereich des digitalen Publizieren zu diskutieren und sich offen auszutauschen. Um diesen Austausch zu fördern, soll der Workshop im Format eines Barcamps durchgeführt werden." "25.03.2019";"11:00";"12:30";"P15";"Workshop_235";"Workshop";;;"Workshop Fortsetzung: Text Mining mit Open Semantic (Desktop) Search";"Jörg Wettlaufer";"Georg-August-Universität Göttingen";"Deutschland";"Stefan Ziehe";"Georg-August-Universität Göttingen";"Deutschland";"Markus Mandalka";"Berlin";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"In den Geisteswissenschaften sind wir bei vielen Fragestellungen auf die Sammlung und das Zusammenstellen von (teilweise sehr großen) Informationsmengen angewiesen, aus denen relevante Details herausgefiltert und anschließend in neue Zusammenhänge gesetzt werden müssen. Dieser informationsgetriebene Ansatz geisteswissenschaftlichen Arbeitens ist nicht weit von den Aufgaben entfernt, die Journalisten heute für ihre Arbeit im digitalen Zeitalter lösen müssen. In diesem Kontext wurde „Open Semantic Desktop Search“ (OSDS) von Markus Mandalka (Berlin) entwickelt, ein Recherche Tool bzw. eine Enterprise Suchmaschine für die semantische und explorative Suche in großen Dokumentenmengen, das auch Textanalyse und Text Mining mit offenen Standards für Linked Open Data bietet: http://www.opensemanticsearch.org. Ziel des Workshops ist es die TeilnehmerInnen in die Lage zu versetzen, OSDS eigenständig für die Beantwortung wissenschaftlicher Fragestellungen, z.B. aus dem Bereich der digitalen Geschichtswissenschaften, zu verwenden und für ihre jeweiligen Bedürfnisse zu konfigurieren bzw. zu erweitern." "25.03.2019";"11:00";"12:30";"Akademie der Wissenschaften und der Literatur | Mainz";"Workshop_266";"Workshop";;;"Workshop Fortsetzung: Graphentechnologien in den Digital Humanities";"Julian Jarosch";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Andreas Kuczera";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Torsten Schrade";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Tariq Yousef";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;"Graphtechnologien bieten insbesondere in den DH neue Perspektiven zur Aufbereitung und Analyse von heterogenen Daten. Viele bestehende XML-Forschungsdaten enthalten bereits implizit semantische Aussagen, die als Graph gelesen, mit weiteren Datenbeständen synthetisiert, und zusammen analysiert werden können. Inzwischen existieren Werkzeuge, die verschiedene Zugriffe auf dieses Potential zugänglich machen – von der deskriptiven Extraktion von RDF aus XML bis zur verlustlosen Migration von Datenbeständen zu text-as-a-graph. Dieser Workshop bietet eine praktische Einführung in vier Werkzeuge, die X-Technologien und Graphtechnologien einander näher bringen." "25.03.2019";"14:00";"15:30";"P6";"Workshop_142";"Workshop";;;"Workshop Texte digital annotieren und analysieren mit CATMA 6.0";"Jan Horstmann";"Universität Hamburg";"Deutschland";"Jan Christoph Meister";"Universität Hamburg";"Deutschland";"Marco Petris";"Universität Hamburg";"Deutschland";"Mareike Schumacher";"Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;;;;"In diesem hands-on Workshop werden wir die Möglichkeiten der für Geisteswissenschaftler*innen entwickelten Annotations- und Analyseplattform CATMA 6.0 praktisch erkunden. Es werden keinerlei technische Vorkenntnisse vorausgesetzt. Inhaltlich werden wir uns vor allem den theoretischen und praktischen Aspekten der digitalen Annotation von (literarischen) Texten, als auch der Analyse und Visualisierung dieser Texte und der erstellten Annotationen widmen.CATMA (Computer Assisted Text Markup and Analysis" "25.03.2019";"14:00";"15:30";"P7";"Workshop_205";"Workshop";;;"Workshop Kollaboratives Arbeiten im Web mit Git-Hub";"Stephan Druskat";"Humboldt-Universität zu Berlin";"Deutschland";"Annika Rockenberger";"Nasjonalbiblioteket";"Norwegen";;;;;;;;;;;;;;;;;;;;;;;;;"In zwei jeweils halbtägigen Workshops erlernen Teilnehmende ohne oder mit wenigen Vorkenntnissen grundlegende Kulturtechniken der digitalen Forschung: Versionskontrolle und kollaboratives verteiltes Arbeiten. Der Teilworkshop ""Versionskontrolle mit Git"" führt auf Grundlage der Software Carpentry (https://software-carpentry.org/) in die Arbeit mit dem Versionskontrollsystem Git (https://git-scm.com/) ein. Dabei unterstützen geleitete Übungen und häufige formative Evaluationen die aktive Aneignung zentraler Konzepte und Prozesse wie Änderungsverfolgung und -historie, Konflikte und deren Auflösung. Der Workshop befähigt Teilnehmende zur Arbeit mit Git auf der Kommandozeile. Der zweite Teilworkshop führt in die Arbeit mit GitHub (https://github.com/) ein und vermittelt die Grundlagen der verteilten Zusammenarbeit an Dokumenten über Methoden wie Issues und Pull Requests. Dabei wird ausschließlich auf die Weboberfläche der Codeplattform zurückgegriffen, so dass keine weiteren Vorkenntnisse notwendig sind. Die Teilworkshops erlauben in Kombination einen fundierten Einstieg in Versionskontrolle und vermitteln die konkrete Arbeit mit den derzeit am weitesten verbreiteten Instrumenten dafür, Git und GitHub, können aber auch einzeln besucht werden." "25.03.2019";"14:00";"15:30";"P10";"Workshop_210";"Workshop";;;"Workshop Fortsetzung: eXist-db und VueJS für dynamische UI-Komponenten";"Oliver Pohl";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Teodora Dogaru";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Jonas Müller-Laackman";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"In dem Workshop sollen Teilnehmende lernen, wie man mit der XML-Datenbank eXist-db Daten nach JSON serialisiert und anhand der ausgelieferten JSON-Daten mit Hilfe von vue.js reaktive HTML-Komponenten erstellt. Als praktisches Beispiel für den Workshop werden die Daten und der Quellcode von quoteSalute zur Veranschaulichung benutzt. quoteSalute aggregiert Grußformeln aus verschiedenen digitalen Briefeditionen, bereitet diese auf, sodass NutzerInnen Briefabschlüsse von z.B. Alexander von Humboldt, Friedrich Schleiermacher oder Anna Gräfin von Lehndorff über einen Klick in ihre eigene E-Mail-Korrespondenz einfügen können. Die Daten dafür werden in einer eXist-db-Instanz als TEI-XML vorgehalten und die Benutzeroberfläche über Vue.js realisiert. Nach dem Workshop sollen die Teilnehmenden in der Lage sein einfache, reaktive Vue.js-Applikation zu programmieren und dessen Aufbau erklären zu können, diese Vue.js-Applikation an eine JSON-REST-Schnittstelle anzubinden, und das grundlegende Prinzip im Zusammenspiel von Backend - JSON-API - JavaScript-Frontend auch auf andere Technologien und Frameworks übertragen zu können." "25.03.2019";"14:00";"15:30";"P11";"Workshop_241";"Workshop";;;"Workshop Distant Letters: Methoden und Praktiken zur quantitativen Analyse digitaler Briefeditionen";"Stefan Dumont";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Susanne Haaf";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Ulrike Henny-Kramer";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Benjamin Krautter";"Universität Stuttgart";"Deutschland";"Frederike Neuber";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;"Briefeditionen sind ein Typus der digitalen Edition, in dem die Vorteile des digitalen Mediums bereits mit am intensivsten fruchtbar gemacht werden. In der alltäglichen Arbeit des Edierens sowie der Software-Entwicklung richtet sich der Blick zum großen Teil meist auf den einzelnen Brief und seine Tiefenerschließung, weniger auf die Menge an Briefen eines Korrespondenzkorpus. Weiterführende quantitative Analysen auf Basis der Tiefenerschließung (vollständige Transkription, Modellierung in XML/TEI, Normdaten etc.) und mit digitalen Methoden, die gerade auch für korpusübergreifende Untersuchungen den Weg ebnen würden, sind traditionellerweise in Editionsprojekten (noch) nicht vorgesehen. Mit dem eintägigen Workshop “Distant Letters” möchten wir ein Panorama an quantitativ orientierten Analysemethoden und -praktiken für Daten digitaler Briefeditionen vorstellen, vermitteln und diskutieren, um so neue Perspektiven auf Briefkorpora zu erproben. Der Workshop gliedert sich in vier Abschnitte und behandelt darin die Auswertung von Metadaten und Entitäten, die Analyse linguistischer Merkmale, Topic Modeling und Stilometrie mit Daten digitaler Briefeditionen." "25.03.2019";"14:00";"15:30";"P12";"Workshop_265";"Workshop";;;"Workshop Vom gedruckten Werk zu elektronischem Volltext als Forschungsgrundlage";"Elisa Herrmann";"Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Volker Hartmann";"Steinbuch Centre for Computing / Karlsruher Institut für Technologie";"Deutschland";"Matthias Boenig";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Die „Koordinierte Förderinitiative zur Weiterentwicklung von Verfahren der Optical Character Recognition“ (kurz OCR-D), arbeitet seit 2015 an der Optimierung der automatischen Texterkennung insbesondere für historische Drucke. Nach einer Bedarfsanalyse werden seit Anfang 2018 in acht Modulprojekten Softwarelösungen entwickelt, die ab Sommer 2019 Open Source zur Verfügung stehen. Kultureinrichtungen wie Bibliotheken lassen seit mehreren Jahren ihre Bestände digitalisieren und zum Teil auch per OCR prozessieren. Der Workshop dient zum einen dazu den OCR-D-Workflow samt der dazu entwickelten Software vorzustellen, zum anderen ergibt sich die Möglichkeit mit der Community zu diskutieren, wie die OCR-D-Lösungen in zukünftige Forschungsprozesse eingebracht werden können." "25.03.2019";"14:00";"15:30";"P15";"Workshop_185";"Workshop";;;"Workshop DHd 2019 Book of Abstracts Hackathon";"Peter Andorfer";"Österreichische Akademie der Wissenschaften";"Österreich";"Fabian Cremer";"Max Weber Stiftung";"Deutschland";"Timo Steyer";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Im Workshop werden zeitgemäße und alternative Publikationsformen und Formate der Konferenz-Abstracts der DHd 2019 gemeinsam mit den Teilnehmer*innen erarbeitet. Im Format eines Hackathons entwickeln kleine Teams Lösungen für unterschiedliche Prozesse und Repräsentationsformen der im Vorfeld des Workshops aufbereiteten XML/TEI-P5-basierten Abstracts. Die vom Teilnehmerkreis zu adaptierenden und zu ergänzenden Themen der AGs umfassen Texttransformation, Präsentationsschichten, maschinenlesbare Schnittstellen, Visualisierungen, multimediale Inhalte, Text- und Netzwerkanalyse. Der Hackathon soll sowohl konkrete und nachnutzbare Ergebnisse liefern, in Form implementierter Publikationen und dokumentierter Datentransformation, als auch einen Diskussionsimpuls zur Zukunft des Digitalen Publizierens in den Digital Humanities zu geben. Ziel ist es auch, die Konferenzabstracts als Publikationsformat aufzuwerten und ihr Potential als Gegenstand von Publikations- und Forschungsprozessen herauszustellen." "25.03.2019";"14:00";"15:30";"Musiksaal";"Workshop_165";"Workshop";;;"Workshop Usability-Testing für Softwarewerkzeuge in den Digital Humanities am Beispiel von Bildrepositorien";"Leyla Dewitz";"Technische Universität Dresden";"Deutschland";"Sander Münster";"Technische Universität Dresden";"Deutschland";"Florian Niebling";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Cindy Kröber";"Technische Universität Dresden";"Deutschland";;;;;;;;;;;;;;;;;;;"Methoden der nutzerzentrierten Evaluierung interaktiver Softwarewerkzeuge können die Umsetzung digitaler Arbeitstechniken in den Geisteswissenschaften wesentlich unterstützen. In diesem Workshop lernen Teilnehmende grundlegende Theorien und Methoden der User Experience und Usability kennen und anwenden. Als Beispiel eines zu testenden Bildrepositorums dient dabei die 3D-Webanwendung der Nachwuchsforschungsgruppe HistStadt4D. Diese soll durch die Workshop-Teilnehmer durch das Einnehmen spezifischer Nutzerperspektiven auf Aspekte der Usability hin geprüft werden. Hierfür bietet sich die Methode des Paper-Prototyping in Kombination mit der Verwendung von Personas an. Ziel ist die Orientierung der Usability an Anforderungen der Nutzer, insbesondere eine Optimierung von Funktionalitäten der Webanwendung und der Durchsuch- und Auffindbarkeit von Bildmaterialien. Zuvor vermittelte Kenntnisse können so in einen Anwendungskontext gebracht und diskutiert werden. Der Workshop soll zur Sensibilisierung der DH-Community sowie der von Entwicklern der Bildrepositorien beitragen, indem praxistaugliche und allgemein verwendbare Methoden der User Experience und Usability-Methoden vermittelt und erste Fähigkeiten erlernt werden. " "25.03.2019";"14:00";"15:30";"02-521";"Workshop_132";"Workshop";;;"Workshop Qualitätsstandards und Interdisziplinarität in der Kuration audiovisueller (Sprach-)Daten";"Thomas Schmidt";"Institut für Deutsche Sprache";"Deutschland";"Jonathan Blumtritt";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Hanna Hedeland";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";"Jan Gorisch";"Institut für Deutsche Sprache";"Deutschland";"Felix Rau";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Kai Wörner";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";;;;;;;;;;;;;"Der Workshop setzt eine Reihe fort, die mit dem Workshop “Nachhaltigkeit von Workflows zur Datenkuratierung” auf der FORGE 2016 begonnen und bei der DHd-Tagung 2018 mit dem Workshop “Nutzerunterstützung und neueste Entwicklungen in Forschungsdatenrepositorien für audiovisuelle (Sprach-)Daten” weitergeführt wurde. Er richtet sich an Personen, die in Archiven und Datenzentren mit dem Forschungsdatenmanagement audiovisueller Sprachdaten zu tun haben, sowie an Forschende, Lehrende und Studierende, die in ihrer akademischen Tätigkeit mit solchen Daten arbeiten.Der Fokus des Workshops liegt auf Qualitätsstandards für audiovisuelle Sprachdaten vor dem Hintergrund, dass bei deren Nachnutzung interdisziplinäre Perspektiven eine zunehmend wichtige Rolle spielen. Archive und Datenzentren müssen sich der Herausforderung stellen, ihre Qualitätsstandards für die Kurationsarbeit vor diesem Hintergrund neu zu bewerten und weiter zu entwickeln. Der Wert einer gegebenen Ressource mag unter Berücksichtigung ihres Potentials zur interdisziplinären Nachnutzung anders beurteilt werden, und es kann notwendig werden, technische Standards der Datenrepräsentation oder Instrumente zur Dissemination an dieses Potential anzupassen." "25.03.2019";"14:00";"15:30";"Akademie der Wissenschaften und der Literatur | Mainz";"Workshop_194";"Workshop";;;"Workshop Open Graph Space: Einsatz und Potenzial von Graphentechnologien in den digitalen Geisteswissenschaften";"Franziska Diehr";"Stiftung Preußischer Kulturbesitz";"Deutschland";"Maximilian Brodhun";"Niedersächsische Staats- und Universitätsbibliothek Göttingen";"Deutschland";"Andreas Kuczera";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Thomas Kollatz";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Thorsten Wübbena";"Kunstgeschichtliches Institut, Goethe Universität Frankfurt am Main / Deutsches Forum für Kunstgeschichte Paris";"Deutschland / Frankreich";"Thomas Efer";"Sächsische Akademie der Wissenschaften zu Leipzig / Universität Leipzig";"Deutschland";;;;;;;;;;;;;"Die AG Graphentechnologie des DHd Verbands lädt zum offenen Austausch von Erfahrungen, Fragestellungen und Ideen rund um das Thema Graphentechnologien in den digitalen Geisteswissenschaften zu einem „Open Graph Space“ ein. Als offenes Format mit selbstorganisierendem Charakter wird Interessierten und ExpertInnen die Gelegenheit zum aktiven Austausch gegeben in dem sie selbst Themen vorschlagen. Ob praxisorientiertes Problem oder theoretische Fragestellung – der Raum ist für alle Impulse offen. Gleichzeitig gewinnen Interessierte einen Einblick in die breiten Anwendungsmöglichkeiten von graph-basierten Technologien in den Digital Humanities. In Kleingruppen werden gemeinsam Ideen für neue Anwendungsbereiche entwickelt aber auch bestehende Probleme vielschichtig betrachtet und analysiert. Die kreativen Methoden des „Open Graph Space“ ermöglichen die Entdeckung neuer Einsatzmöglichkeiten: Bestehende Horizonte werden erweitert und es können neue Areale für graph-basierte Technologien exploriert werden. Die kreativen Impulse aller Beteiligten sollen in einer frei zugänglichen Publikation gebündelt werden und als Anregung zum weiteren fachlichen Austausch dienen." "25.03.2019";"16:00";"17:30";"P6";"Workshop_142";"Workshop";;;"Workshop Fortsetzung: Texte digital annotieren und analysieren mit CATMA 6.0";"Jan Horstmann";"Universität Hamburg";"Deutschland";"Jan Christoph Meister";"Universität Hamburg";"Deutschland";"Marco Petris";"Universität Hamburg";"Deutschland";"Mareike Schumacher";"Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;;;;"In diesem hands-on Workshop werden wir die Möglichkeiten der für Geisteswissenschaftler*innen entwickelten Annotations- und Analyseplattform CATMA 6.0 praktisch erkunden. Es werden keinerlei technische Vorkenntnisse vorausgesetzt. Inhaltlich werden wir uns vor allem den theoretischen und praktischen Aspekten der digitalen Annotation von (literarischen) Texten, als auch der Analyse und Visualisierung dieser Texte und der erstellten Annotationen widmen.CATMA (Computer Assisted Text Markup and Analysis" "25.03.2019";"16:00";"17:30";"P7";"Workshop_205";"Workshop";;;"Workshop Fortsetzung: Kollaboratives Arbeiten im Web mit Git-Hub";"Stephan Druskat";"Humboldt-Universität zu Berlin";"Deutschland";"Annika Rockenberger";"Nasjonalbiblioteket";"Norwegen";;;;;;;;;;;;;;;;;;;;;;;;;"In zwei jeweils halbtägigen Workshops erlernen Teilnehmende ohne oder mit wenigen Vorkenntnissen grundlegende Kulturtechniken der digitalen Forschung: Versionskontrolle und kollaboratives verteiltes Arbeiten. Der Teilworkshop ""Versionskontrolle mit Git"" führt auf Grundlage der Software Carpentry (https://software-carpentry.org/) in die Arbeit mit dem Versionskontrollsystem Git (https://git-scm.com/) ein. Dabei unterstützen geleitete Übungen und häufige formative Evaluationen die aktive Aneignung zentraler Konzepte und Prozesse wie Änderungsverfolgung und -historie, Konflikte und deren Auflösung. Der Workshop befähigt Teilnehmende zur Arbeit mit Git auf der Kommandozeile. Der zweite Teilworkshop führt in die Arbeit mit GitHub (https://github.com/) ein und vermittelt die Grundlagen der verteilten Zusammenarbeit an Dokumenten über Methoden wie Issues und Pull Requests. Dabei wird ausschließlich auf die Weboberfläche der Codeplattform zurückgegriffen, so dass keine weiteren Vorkenntnisse notwendig sind. Die Teilworkshops erlauben in Kombination einen fundierten Einstieg in Versionskontrolle und vermitteln die konkrete Arbeit mit den derzeit am weitesten verbreiteten Instrumenten dafür, Git und GitHub, können aber auch einzeln besucht werden." "25.03.2019";"16:00";"17:30";"P10";"Workshop_210";"Workshop";;;"Workshop Fortsetzung: eXist-db und VueJS für dynamische UI-Komponenten";"Oliver Pohl";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Teodora Dogaru";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Jonas Müller-Laackman";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"In dem Workshop sollen Teilnehmende lernen, wie man mit der XML-Datenbank eXist-db Daten nach JSON serialisiert und anhand der ausgelieferten JSON-Daten mit Hilfe von vue.js reaktive HTML-Komponenten erstellt. Als praktisches Beispiel für den Workshop werden die Daten und der Quellcode von quoteSalute zur Veranschaulichung benutzt. quoteSalute aggregiert Grußformeln aus verschiedenen digitalen Briefeditionen, bereitet diese auf, sodass NutzerInnen Briefabschlüsse von z.B. Alexander von Humboldt, Friedrich Schleiermacher oder Anna Gräfin von Lehndorff über einen Klick in ihre eigene E-Mail-Korrespondenz einfügen können. Die Daten dafür werden in einer eXist-db-Instanz als TEI-XML vorgehalten und die Benutzeroberfläche über Vue.js realisiert. Nach dem Workshop sollen die Teilnehmenden in der Lage sein einfache, reaktive Vue.js-Applikation zu programmieren und dessen Aufbau erklären zu können, diese Vue.js-Applikation an eine JSON-REST-Schnittstelle anzubinden, und das grundlegende Prinzip im Zusammenspiel von Backend - JSON-API - JavaScript-Frontend auch auf andere Technologien und Frameworks übertragen zu können." "25.03.2019";"16:00";"17:30";"P11";"Workshop_241";"Workshop";;;"Workshop Fortsetzung: Distant Letters";"Stefan Dumont";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Susanne Haaf";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Ulrike Henny-Kramer";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Benjamin Krautter";"Universität Stuttgart";"Deutschland";"Frederike Neuber";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;"Briefeditionen sind ein Typus der digitalen Edition, in dem die Vorteile des digitalen Mediums bereits mit am intensivsten fruchtbar gemacht werden. In der alltäglichen Arbeit des Edierens sowie der Software-Entwicklung richtet sich der Blick zum großen Teil meist auf den einzelnen Brief und seine Tiefenerschließung, weniger auf die Menge an Briefen eines Korrespondenzkorpus. Weiterführende quantitative Analysen auf Basis der Tiefenerschließung (vollständige Transkription, Modellierung in XML/TEI, Normdaten etc.) und mit digitalen Methoden, die gerade auch für korpusübergreifende Untersuchungen den Weg ebnen würden, sind traditionellerweise in Editionsprojekten (noch) nicht vorgesehen. Mit dem eintägigen Workshop “Distant Letters” möchten wir ein Panorama an quantitativ orientierten Analysemethoden und -praktiken für Daten digitaler Briefeditionen vorstellen, vermitteln und diskutieren, um so neue Perspektiven auf Briefkorpora zu erproben. Der Workshop gliedert sich in vier Abschnitte und behandelt darin die Auswertung von Metadaten und Entitäten, die Analyse linguistischer Merkmale, Topic Modeling und Stilometrie mit Daten digitaler Briefeditionen." "25.03.2019";"16:00";"17:30";"P12";"Workshop_265";"Workshop";;;"Workshop Fortsetzung: Vom gedruckten Werk zu elektronischem Volltext als Forschungsgrundlage";"Elisa Herrmann";"Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Volker Hartmann";"Steinbuch Centre for Computing / Karlsruher Institut für Technologie";"Deutschland";"Matthias Boenig";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Die „Koordinierte Förderinitiative zur Weiterentwicklung von Verfahren der Optical Character Recognition“ (kurz OCR-D), arbeitet seit 2015 an der Optimierung der automatischen Texterkennung insbesondere für historische Drucke. Nach einer Bedarfsanalyse werden seit Anfang 2018 in acht Modulprojekten Softwarelösungen entwickelt, die ab Sommer 2019 Open Source zur Verfügung stehen. Kultureinrichtungen wie Bibliotheken lassen seit mehreren Jahren ihre Bestände digitalisieren und zum Teil auch per OCR prozessieren. Der Workshop dient zum einen dazu den OCR-D-Workflow samt der dazu entwickelten Software vorzustellen, zum anderen ergibt sich die Möglichkeit mit der Community zu diskutieren, wie die OCR-D-Lösungen in zukünftige Forschungsprozesse eingebracht werden können." "25.03.2019";"16:00";"17:30";"P15";"Workshop_185";"Workshop";;;"Workshop Fortsetzung: DHd 2019 Book of Abstracts Hackathon";"Peter Andorfer";"Österreichische Akademie der Wissenschaften";"Österreich";"Fabian Cremer";"Max Weber Stiftung";"Deutschland";"Timo Steyer";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Im Workshop werden zeitgemäße und alternative Publikationsformen und Formate der Konferenz-Abstracts der DHd 2019 gemeinsam mit den Teilnehmer*innen erarbeitet. Im Format eines Hackathons entwickeln kleine Teams Lösungen für unterschiedliche Prozesse und Repräsentationsformen der im Vorfeld des Workshops aufbereiteten XML/TEI-P5-basierten Abstracts. Die vom Teilnehmerkreis zu adaptierenden und zu ergänzenden Themen der AGs umfassen Texttransformation, Präsentationsschichten, maschinenlesbare Schnittstellen, Visualisierungen, multimediale Inhalte, Text- und Netzwerkanalyse. Der Hackathon soll sowohl konkrete und nachnutzbare Ergebnisse liefern, in Form implementierter Publikationen und dokumentierter Datentransformation, als auch einen Diskussionsimpuls zur Zukunft des Digitalen Publizierens in den Digital Humanities zu geben. Ziel ist es auch, die Konferenzabstracts als Publikationsformat aufzuwerten und ihr Potential als Gegenstand von Publikations- und Forschungsprozessen herauszustellen." "25.03.2019";"16:00";"17:30";"Musiksaal";"Workshop_165";"Workshop";;;"Workshop Fortsetzung: Usability-Testing für Softwarewerkzeuge";"Leyla Dewitz";"Technische Universität Dresden";"Deutschland";"Sander Münster";"Technische Universität Dresden";"Deutschland";"Florian Niebling";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Cindy Kröber";"Technische Universität Dresden";"Deutschland";;;;;;;;;;;;;;;;;;;"Methoden der nutzerzentrierten Evaluierung interaktiver Softwarewerkzeuge können die Umsetzung digitaler Arbeitstechniken in den Geisteswissenschaften wesentlich unterstützen. In diesem Workshop lernen Teilnehmende grundlegende Theorien und Methoden der User Experience und Usability kennen und anwenden. Als Beispiel eines zu testenden Bildrepositorums dient dabei die 3D-Webanwendung der Nachwuchsforschungsgruppe HistStadt4D. Diese soll durch die Workshop-Teilnehmer durch das Einnehmen spezifischer Nutzerperspektiven auf Aspekte der Usability hin geprüft werden. Hierfür bietet sich die Methode des Paper-Prototyping in Kombination mit der Verwendung von Personas an. Ziel ist die Orientierung der Usability an Anforderungen der Nutzer, insbesondere eine Optimierung von Funktionalitäten der Webanwendung und der Durchsuch- und Auffindbarkeit von Bildmaterialien. Zuvor vermittelte Kenntnisse können so in einen Anwendungskontext gebracht und diskutiert werden. Der Workshop soll zur Sensibilisierung der DH-Community sowie der von Entwicklern der Bildrepositorien beitragen, indem praxistaugliche und allgemein verwendbare Methoden der User Experience und Usability-Methoden vermittelt und erste Fähigkeiten erlernt werden. " "25.03.2019";"16:00";"17:30";"02-521";"Workshop_132";"Workshop";;;"Workshop Fortsetzung: Qualitätsstandards und Interdisziplinarität in der Kuration audiovisueller (Sprach-)Daten";"Thomas Schmidt";"Institut für Deutsche Sprache";"Deutschland";"Jonathan Blumtritt";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Hanna Hedeland";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";"Jan Gorisch";"Institut für Deutsche Sprache";"Deutschland";"Felix Rau";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Kai Wörner";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";;;;;;;;;;;;;"Der Workshop setzt eine Reihe fort, die mit dem Workshop “Nachhaltigkeit von Workflows zur Datenkuratierung” auf der FORGE 2016 begonnen und bei der DHd-Tagung 2018 mit dem Workshop “Nutzerunterstützung und neueste Entwicklungen in Forschungsdatenrepositorien für audiovisuelle (Sprach-)Daten” weitergeführt wurde. Er richtet sich an Personen, die in Archiven und Datenzentren mit dem Forschungsdatenmanagement audiovisueller Sprachdaten zu tun haben, sowie an Forschende, Lehrende und Studierende, die in ihrer akademischen Tätigkeit mit solchen Daten arbeiten.Der Fokus des Workshops liegt auf Qualitätsstandards für audiovisuelle Sprachdaten vor dem Hintergrund, dass bei deren Nachnutzung interdisziplinäre Perspektiven eine zunehmend wichtige Rolle spielen. Archive und Datenzentren müssen sich der Herausforderung stellen, ihre Qualitätsstandards für die Kurationsarbeit vor diesem Hintergrund neu zu bewerten und weiter zu entwickeln. Der Wert einer gegebenen Ressource mag unter Berücksichtigung ihres Potentials zur interdisziplinären Nachnutzung anders beurteilt werden, und es kann notwendig werden, technische Standards der Datenrepräsentation oder Instrumente zur Dissemination an dieses Potential anzupassen." "25.03.2019";"16:00";"17:30";"Akademie der Wissenschaften und der Literatur | Mainz";"Workshop_194";"Workshop";;;"Workshop Fortsetzung: Open Graph Space";"Franziska Diehr";"Stiftung Preußischer Kulturbesitz";"Deutschland";"Maximilian Brodhun";"Niedersächsische Staats- und Universitätsbibliothek Göttingen";"Deutschland";"Andreas Kuczera";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Thomas Kollatz";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Thorsten Wübbena";"Kunstgeschichtliches Institut, Goethe Universität Frankfurt am Main / Deutsches Forum für Kunstgeschichte Paris";"Deutschland / Frankreich";"Thomas Efer";"Sächsische Akademie der Wissenschaften zu Leipzig / Universität Leipzig";"Deutschland";;;;;;;;;;;;;"Die AG Graphentechnologie des DHd Verbands lädt zum offenen Austausch von Erfahrungen, Fragestellungen und Ideen rund um das Thema Graphentechnologien in den digitalen Geisteswissenschaften zu einem „Open Graph Space“ ein. Als offenes Format mit selbstorganisierendem Charakter wird Interessierten und ExpertInnen die Gelegenheit zum aktiven Austausch gegeben in dem sie selbst Themen vorschlagen. Ob praxisorientiertes Problem oder theoretische Fragestellung – der Raum ist für alle Impulse offen. Gleichzeitig gewinnen Interessierte einen Einblick in die breiten Anwendungsmöglichkeiten von graph-basierten Technologien in den Digital Humanities. In Kleingruppen werden gemeinsam Ideen für neue Anwendungsbereiche entwickelt aber auch bestehende Probleme vielschichtig betrachtet und analysiert. Die kreativen Methoden des „Open Graph Space“ ermöglichen die Entdeckung neuer Einsatzmöglichkeiten: Bestehende Horizonte werden erweitert und es können neue Areale für graph-basierte Technologien exploriert werden. Die kreativen Impulse aller Beteiligten sollen in einer frei zugänglichen Publikation gebündelt werden und als Anregung zum weiteren fachlichen Austausch dienen." "26.03.2019";"09:00";"10:30";"P6";"Workshop_183";"Workshop";;;"Workshop Maschinelles Lernen lernen: Ein CRETA-Hackatorial zur reflektierten automatischen Textanalyse";"Gerhard Kremer";"Institut für maschinelle Sprachverarbeitung Universität Stuttgart";"Deutschland";"Kerstin Jung";"Institut für maschinelle Sprachverarbeitung Universität Stuttgart";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Das Ziel dieses Tutorials ist es, den Teilnehmerinnen und Teilnehmern konkrete und praktische Einblicke in einen Standardfall automatischer Textanalyse zu geben. Am Beispiel der automatischen Erkennung von Entitätenreferenzen gehen wir auf allgemeine Annahmen, Verfahrensweisen und methodische Standards bei maschinellen Lernverfahren ein. Die Teilnehmerinnen und Teilnehmer können beim Bearbeiten von lauffähigem Programmiercode den Entscheidungsraum solcher Verfahren ausleuchten und austesten.Neben einem Python-Programm für die automatische Annotierung von Entitätenreferenzen, mit und an dem während des Tutorials gearbeitet werden wird, stellen wir ein heterogenes, manuell annotiertes Korpus sowie die Routinen zur Evaluation und zum Vergleich von Annotationen zu Verfügung." "26.03.2019";"09:00";"10:30";"P11";"Workshop_241";"Workshop";;;"Workshop Fortsetzung: Distant Letters";"Stefan Dumont";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Susanne Haaf";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Ulrike Henny-Kramer";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Benjamin Krautter";"Universität Stuttgart";"Deutschland";"Frederike Neuber";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;"Briefeditionen sind ein Typus der digitalen Edition, in dem die Vorteile des digitalen Mediums bereits mit am intensivsten fruchtbar gemacht werden. In der alltäglichen Arbeit des Edierens sowie der Software-Entwicklung richtet sich der Blick zum großen Teil meist auf den einzelnen Brief und seine Tiefenerschließung, weniger auf die Menge an Briefen eines Korrespondenzkorpus. Weiterführende quantitative Analysen auf Basis der Tiefenerschließung (vollständige Transkription, Modellierung in XML/TEI, Normdaten etc.) und mit digitalen Methoden, die gerade auch für korpusübergreifende Untersuchungen den Weg ebnen würden, sind traditionellerweise in Editionsprojekten (noch) nicht vorgesehen. Mit dem eintägigen Workshop “Distant Letters” möchten wir ein Panorama an quantitativ orientierten Analysemethoden und -praktiken für Daten digitaler Briefeditionen vorstellen, vermitteln und diskutieren, um so neue Perspektiven auf Briefkorpora zu erproben. Der Workshop gliedert sich in vier Abschnitte und behandelt darin die Auswertung von Metadaten und Entitäten, die Analyse linguistischer Merkmale, Topic Modeling und Stilometrie mit Daten digitaler Briefeditionen." "26.03.2019";"09:00";"10:30";"P12";"Workshop_108";"Workshop";;;"Workshop Automatic Text and Feature Recognition: Mit READ Werkzeugen Texte erkennen und Dokumente analysieren";"Tobias Hodel";"Staatsarchiv des Kantons Zürich";"Schweiz";"Markus Diem";"Computer Vision Lab Technische Universität Wien";"Österreich";"Sofia Oliviera Ares";"Digital Humanities Lab École polytechnique fédérale de Lausanne";"Schweiz";"Max Weidemann";"Citlab Universität Rostock";"Deutschland";;;;;;;;;;;;;;;;;;;"Der Workshop führt in die im Rahmen von READ (Recognition and Enrichment of Archival Documents) entwickelten Werkzeuge ein. Neben der bereits gut eingeführten Plattform Transkribus, werden spezielle Aspekte nämlich die Erkennung von Tabellen, das Training von Handschriftenmodellen und die Identifikation von visuellen Features (Seitenzahlen, Initialen, Überschriften etc.) demonstriert. Die Teilnehmenden können während dem Workshop eigene Schwerpunkte wählen und werden von ExpertInnen betreut.Ziel ist die Vermittlung der Fähigkeiten der Tools für eigene Forschungs- und Aufbereitungsarbeiten." "26.03.2019";"09:00";"10:30";"Musiksaal";"Workshop_209";"Workshop";;;"Workshop Wissenschaftliches Bloggen mit de.hypotheses";"Mareike König";"Deutsches Historisches Institut Paris";"Frankreich";"Ulla Menke";"Max Weber Stiftung";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Der Workshop vermittelt Grundlagen des geisteswissenschaftlichen Bloggens. Nach einem kurzen einführenden Teil rund um aktuelle Praktiken, deren Einordnung in die wissenschaftliche Publikationslandschaft und die Entwicklung einer Strategie für das eigene Wissenschaftsblog werden in einem Praxisteil technische, organisatorische und rechtliche Grundlagen wie z.B. Einrichten des Blogs, Navigation, Kategorien, Schlagwörter, Lizenzierung eigener Inhalte, Nutzung fremder Inhalte vermittelt. Teilnehmende können das Gelernte direkt an einem für sie aufgesetzten Wordpress-Schulungsblog üben und vollziehen die einzelnen Schritte von der Formulierung einer guten Überschrift, einer sinnvollen Navigation und Kategorienbildung bis hin zum Einbetten von Videos und zum Vernetzen mit der Fachcommunity mit. " "26.03.2019";"09:00";"10:30";"02-521";"Workshop_132";"Workshop";;;"Workshop Fortsetzung: Qualitätsstandards und Interdisziplinarität in der Kuration audiovisueller (Sprach-)Daten";"Thomas Schmidt";"Institut für Deutsche Sprache";"Deutschland";"Jonathan Blumtritt";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Hanna Hedeland";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";"Jan Gorisch";"Institut für Deutsche Sprache";"Deutschland";"Felix Rau";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Kai Wörner";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";;;;;;;;;;;;;"Der Workshop setzt eine Reihe fort, die mit dem Workshop “Nachhaltigkeit von Workflows zur Datenkuratierung” auf der FORGE 2016 begonnen und bei der DHd-Tagung 2018 mit dem Workshop “Nutzerunterstützung und neueste Entwicklungen in Forschungsdatenrepositorien für audiovisuelle (Sprach-)Daten” weitergeführt wurde. Er richtet sich an Personen, die in Archiven und Datenzentren mit dem Forschungsdatenmanagement audiovisueller Sprachdaten zu tun haben, sowie an Forschende, Lehrende und Studierende, die in ihrer akademischen Tätigkeit mit solchen Daten arbeiten.Der Fokus des Workshops liegt auf Qualitätsstandards für audiovisuelle Sprachdaten vor dem Hintergrund, dass bei deren Nachnutzung interdisziplinäre Perspektiven eine zunehmend wichtige Rolle spielen. Archive und Datenzentren müssen sich der Herausforderung stellen, ihre Qualitätsstandards für die Kurationsarbeit vor diesem Hintergrund neu zu bewerten und weiter zu entwickeln. Der Wert einer gegebenen Ressource mag unter Berücksichtigung ihres Potentials zur interdisziplinären Nachnutzung anders beurteilt werden, und es kann notwendig werden, technische Standards der Datenrepräsentation oder Instrumente zur Dissemination an dieses Potential anzupassen." "26.03.2019";"09:00";"10:30";"Akademie der Wissenschaften und der Literatur | Mainz";"Workshop_266";"Workshop";;;"Workshop Fortsetzung: Graphentechnologien in den Digital Humanities";"Julian Jarosch";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Andreas Kuczera";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Torsten Schrade";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Tariq Yousef";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;"Graphtechnologien bieten insbesondere in den DH neue Perspektiven zur Aufbereitung und Analyse von heterogenen Daten. Viele bestehende XML-Forschungsdaten enthalten bereits implizit semantische Aussagen, die als Graph gelesen, mit weiteren Datenbeständen synthetisiert, und zusammen analysiert werden können. Inzwischen existieren Werkzeuge, die verschiedene Zugriffe auf dieses Potential zugänglich machen – von der deskriptiven Extraktion von RDF aus XML bis zur verlustlosen Migration von Datenbeständen zu text-as-a-graph. Dieser Workshop bietet eine praktische Einführung in vier Werkzeuge, die X-Technologien und Graphtechnologien einander näher bringen." "26.03.2019";"11:00";"12:30";"P6";"Workshop_183";"Workshop";;;"Workshop Maschinelles Lernen lernen: Ein CRETA-Hackatorial zur reflektierten automatischen Textanalyse";"Gerhard Kremer";"Institut für maschinelle Sprachverarbeitung Universität Stuttgart";"Deutschland";"Kerstin Jung";"Institut für maschinelle Sprachverarbeitung Universität Stuttgart";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Das Ziel dieses Tutorials ist es, den Teilnehmerinnen und Teilnehmern konkrete und praktische Einblicke in einen Standardfall automatischer Textanalyse zu geben. Am Beispiel der automatischen Erkennung von Entitätenreferenzen gehen wir auf allgemeine Annahmen, Verfahrensweisen und methodische Standards bei maschinellen Lernverfahren ein. Die Teilnehmerinnen und Teilnehmer können beim Bearbeiten von lauffähigem Programmiercode den Entscheidungsraum solcher Verfahren ausleuchten und austesten.Neben einem Python-Programm für die automatische Annotierung von Entitätenreferenzen, mit und an dem während des Tutorials gearbeitet werden wird, stellen wir ein heterogenes, manuell annotiertes Korpus sowie die Routinen zur Evaluation und zum Vergleich von Annotationen zu Verfügung." "26.03.2019";"11:00";"12:30";"P11";"Workshop_241";"Workshop";;;"Workshop Fortsetzung: Distant Letters";"Stefan Dumont";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Susanne Haaf";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Ulrike Henny-Kramer";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Benjamin Krautter";"Universität Stuttgart";"Deutschland";"Frederike Neuber";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;"Briefeditionen sind ein Typus der digitalen Edition, in dem die Vorteile des digitalen Mediums bereits mit am intensivsten fruchtbar gemacht werden. In der alltäglichen Arbeit des Edierens sowie der Software-Entwicklung richtet sich der Blick zum großen Teil meist auf den einzelnen Brief und seine Tiefenerschließung, weniger auf die Menge an Briefen eines Korrespondenzkorpus. Weiterführende quantitative Analysen auf Basis der Tiefenerschließung (vollständige Transkription, Modellierung in XML/TEI, Normdaten etc.) und mit digitalen Methoden, die gerade auch für korpusübergreifende Untersuchungen den Weg ebnen würden, sind traditionellerweise in Editionsprojekten (noch) nicht vorgesehen. Mit dem eintägigen Workshop “Distant Letters” möchten wir ein Panorama an quantitativ orientierten Analysemethoden und -praktiken für Daten digitaler Briefeditionen vorstellen, vermitteln und diskutieren, um so neue Perspektiven auf Briefkorpora zu erproben. Der Workshop gliedert sich in vier Abschnitte und behandelt darin die Auswertung von Metadaten und Entitäten, die Analyse linguistischer Merkmale, Topic Modeling und Stilometrie mit Daten digitaler Briefeditionen." "26.03.2019";"11:00";"12:30";"P12";"Workshop_108";"Workshop";;;"Workshop Automatic Text and Feature Recognition: Mit READ Werkzeugen Texte erkennen und Dokumente analysieren";"Tobias Hodel";"Staatsarchiv des Kantons Zürich";"Schweiz";"Markus Diem";"Computer Vision Lab Technische Universität Wien";"Österreich";"Sofia Oliviera Ares";"Digital Humanities Lab École polytechnique fédérale de Lausanne";"Schweiz";"Max Weidemann";"Citlab Universität Rostock";"Deutschland";;;;;;;;;;;;;;;;;;;"Der Workshop führt in die im Rahmen von READ (Recognition and Enrichment of Archival Documents) entwickelten Werkzeuge ein. Neben der bereits gut eingeführten Plattform Transkribus, werden spezielle Aspekte nämlich die Erkennung von Tabellen, das Training von Handschriftenmodellen und die Identifikation von visuellen Features (Seitenzahlen, Initialen, Überschriften etc.) demonstriert. Die Teilnehmenden können während dem Workshop eigene Schwerpunkte wählen und werden von ExpertInnen betreut.Ziel ist die Vermittlung der Fähigkeiten der Tools für eigene Forschungs- und Aufbereitungsarbeiten." "26.03.2019";"11:00";"12:30";"Musiksaal";"Workshop_209";"Workshop";;;"Workshop Wissenschaftliches Bloggen mit de.hypotheses";"Mareike König";"Deutsches Historisches Institut Paris";"Frankreich";"Ulla Menke";"Max Weber Stiftung";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Der Workshop vermittelt Grundlagen des geisteswissenschaftlichen Bloggens. Nach einem kurzen einführenden Teil rund um aktuelle Praktiken, deren Einordnung in die wissenschaftliche Publikationslandschaft und die Entwicklung einer Strategie für das eigene Wissenschaftsblog werden in einem Praxisteil technische, organisatorische und rechtliche Grundlagen wie z.B. Einrichten des Blogs, Navigation, Kategorien, Schlagwörter, Lizenzierung eigener Inhalte, Nutzung fremder Inhalte vermittelt. Teilnehmende können das Gelernte direkt an einem für sie aufgesetzten Wordpress-Schulungsblog üben und vollziehen die einzelnen Schritte von der Formulierung einer guten Überschrift, einer sinnvollen Navigation und Kategorienbildung bis hin zum Einbetten von Videos und zum Vernetzen mit der Fachcommunity mit. " "26.03.2019";"11:00";"12:30";"02-521";"Workshop_132";"Workshop";;;"Workshop Fortsetzung: Qualitätsstandards und Interdisziplinarität in der Kuration audiovisueller (Sprach-)Daten";"Thomas Schmidt";"Institut für Deutsche Sprache";"Deutschland";"Jonathan Blumtritt";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Hanna Hedeland";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";"Jan Gorisch";"Institut für Deutsche Sprache";"Deutschland";"Felix Rau";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Kai Wörner";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";;;;;;;;;;;;;"Der Workshop setzt eine Reihe fort, die mit dem Workshop “Nachhaltigkeit von Workflows zur Datenkuratierung” auf der FORGE 2016 begonnen und bei der DHd-Tagung 2018 mit dem Workshop “Nutzerunterstützung und neueste Entwicklungen in Forschungsdatenrepositorien für audiovisuelle (Sprach-)Daten” weitergeführt wurde. Er richtet sich an Personen, die in Archiven und Datenzentren mit dem Forschungsdatenmanagement audiovisueller Sprachdaten zu tun haben, sowie an Forschende, Lehrende und Studierende, die in ihrer akademischen Tätigkeit mit solchen Daten arbeiten.Der Fokus des Workshops liegt auf Qualitätsstandards für audiovisuelle Sprachdaten vor dem Hintergrund, dass bei deren Nachnutzung interdisziplinäre Perspektiven eine zunehmend wichtige Rolle spielen. Archive und Datenzentren müssen sich der Herausforderung stellen, ihre Qualitätsstandards für die Kurationsarbeit vor diesem Hintergrund neu zu bewerten und weiter zu entwickeln. Der Wert einer gegebenen Ressource mag unter Berücksichtigung ihres Potentials zur interdisziplinären Nachnutzung anders beurteilt werden, und es kann notwendig werden, technische Standards der Datenrepräsentation oder Instrumente zur Dissemination an dieses Potential anzupassen." "26.03.2019";"11:00";"12:30";"Akademie der Wissenschaften und der Literatur | Mainz";"Workshop_266";"Workshop";;;"Workshop Fortsetzung: Graphentechnologien in den Digital Humanities";"Julian Jarosch";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Andreas Kuczera";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Torsten Schrade";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Tariq Yousef";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;"Graphtechnologien bieten insbesondere in den DH neue Perspektiven zur Aufbereitung und Analyse von heterogenen Daten. Viele bestehende XML-Forschungsdaten enthalten bereits implizit semantische Aussagen, die als Graph gelesen, mit weiteren Datenbeständen synthetisiert, und zusammen analysiert werden können. Inzwischen existieren Werkzeuge, die verschiedene Zugriffe auf dieses Potential zugänglich machen – von der deskriptiven Extraktion von RDF aus XML bis zur verlustlosen Migration von Datenbeständen zu text-as-a-graph. Dieser Workshop bietet eine praktische Einführung in vier Werkzeuge, die X-Technologien und Graphtechnologien einander näher bringen." "26.03.2019";"20:00";"22:00";"HZ1";;;;;"Eröffnung der DHd 2019";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;"Feierliche Eröffnung der 6. Jahrestagung des Verbands Digital Humanities im deutschsprachigen Raum unter dem Oberthema „Digitale Humanities: multimedial & multimodal“ mit Grußworten von den Hochschulleitungen, der Dhd und dem Programmkomitee und Keynote [eventuell INTRALINK]. Empfang mit Fingerfood in der Lobby des PA-Gebäudes LINK UMAP. Teilnahme nach Anmeldung via conftool LINK" "26.03.2019";"21:00";"22:00";"HZ1";;"Keynote";;;"Keynote Avancierte Methoden der computer-gestützten ästhetischen Filmanalyse";"Barbara Flückiger";"Seminar für Filmwissenschaft Universität Zürich";"Schweiz";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Audio-visuelle Bewegtbilder stellen hohe Anforderung an computer-gestützte Verfahren, einerseits wegen der Komplexität das Materials, andererseits wegen der hohen Dichte an audio-visuellen Informationen, die sie enthalten. Diese Anforderungen werden noch entschieden gesteigert, wenn es um ästhetische Dimensionen und die Identifikation von stilistischen Nuancen geht. Genau eine solche Zielsetzung steht im Zentrum des Forschungsprojekts ERC Advanced Grant FilmColors, um mit digitalen Werkzeugen den Zusammenhang zwischen technischen Verfahren des Farbfilms und stilistischen Mustern systematisch anhand eines großen Korpus systematisch zu untersuchen. Auf der Basis eines Workflows aus Video-Annotation und manueller Analyse entstanden automatische Ansätze mit Deep Learning Tools, welche diese Aufgaben möglichst weitgehend übernehmen und die Ergebnisse in überzeugender Art und Weise visualisieren. Grundlagenforschung, Primär- und Sekundärquellen zur Technik, Ästhetik, Analyse, Messung und Restaurierung / Digitalisierung von Filmfarben werden seit 2012 in der interaktiven Web-Plattform Timeline of Historical Film Colors http://zauberklang.ch/filmcolors/ publiziert." "27.03.2019";"09:00";"10:30";"HZ3";;"Session";"Session Objekt - Raum - Zeit";"Sander Münster";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "27.03.2019";"09:00";"10:30";"HZ3";"Vortrag_288";"Vortrag";"Session Objekt - Raum - Zeit";"Sander Münster";"Vortrag HistoGIS: Vom Punkt zur Fläche in Raum und Zeit";"Matthias Schlögl";"Österreichische Akademie der Wissenschaften";"Österreich";"Peter Paul Marckhgott-Sanabria";"Österreichische Akademie der Wissenschaften";"Österreich";"Peter Andorfer";"Österreichische Akademie der Wissenschaften";"Österreich";"Anna Piechl";"Österreichische Akademie der Wissenschaften";"Österreich";"Antonia Dückelmann";"Österreichische Akademie der Wissenschaften";"Österreich";;;;;;;;;;;;;;;;"Geographische Angaben können in historischen Kontexten nicht als simple 2-dimensionale Daten (Längen- und Breitengrade) verstanden werden. Orte haben immer eine historisch-politische Komponente die mit momentan zur Verfügung stehenden Mitteln selbst für das frühe 20. Jhdt. nur mit nicht unerheblichen Aufwand in ein DH-Projekt inkludiert werden kann. HistoGIS will sich dieses Problems annehmen indem es ein Repository historischer, zeitlich verorteter Shapefiles anbietet (hauptsächlich aus schon vorhandenen Daten) und RestAPIs zur historischen Anreicherung vorhandener Punktdaten anbietet: In welchen administrativen Einheiten lag Punkt X/Y zum Zeitpunkt Z? Im Gegensatz zu einem klassischen Gazetteer setzt das Projekt dabei auf Polygondaten und ein innovatives Datenmodell." "27.03.2019";"09:00";"10:30";"HZ3";"Vortrag_146";"Vortrag";"Session Objekt - Raum - Zeit";"Sander Münster";"Vortrag Historic Building Information Modeling (hBIM) und Linked Data – Neue Zugänge zum Forschungsgegenstand objektorientierter Fächer";"Piotr Kuroczy?ski";"Hochschule Mainz – University of Applied Sciences";"Deutschland";"Julia Brandt";"Hochschule Mainz – University of Applied Sciences";"Deutschland";"Karolina Jara";"Hochschule Mainz – University of Applied Sciences";"Deutschland";"Peggy Große";"Germanisches Nationalmuseum Nürnberg";"Deutschland";;;;;;;;;;;;;;;;;;;"Die Entwicklung der I+K Technologien forcieren die digitale Erfassung unserer räumlichen Umwelt. Bei den objektorientierten Fächern, wie Archäologie, Kunst- und Architekturgeschichte, stellt die CIDOC CRM-Entität E24 Physical Man-Made Thing den zentralen Forschungsgegenstand dar, der verstärkt digital erfasst und in einem größeren Kontext gestellt wird.Die quellenbasierte digitale 3D-Rekonstruktion nicht (mehr) vorhandener Objekte ist eine naheliegende Arte und Weise, auf die man sich dem Forschungsobjekt nähern kann. Auf der anderen Seite stellt sie eine hohe Anforderung an die Wissenschaftlichkeit. Es fehlt an einer etablierten digitalen Methodik, die eine wissenschaftliche Qualitätssicherung, Interoperabilität, Nachvollziehbarkeit und Nachhaltigkeit der Datensätze gewährleisten würde.Der Beitrag möchte der Frage nach dieser neuen Methodik für die computergestützte 3D-Rekonstruktion nachgehen, in dem die Erfahrungen aus der Building Information Modeling-Methode im Bauwesen mit virtuellen Forschungsumgebungen und geisteswissenschaftlichen Fragestellungen an ein Bauwerk und seinen soziokulturellen Kontext am Beispiel der 1938 zerstörten Synagoge am Anger in Breslau gekoppelt werden. " "27.03.2019";"09:00";"10:30";"HZ3";"Vortrag_162";"Vortrag";"Session Objekt - Raum - Zeit";"Sander Münster";"Vortrag Wissenschaftliche Rezeption digitaler 3D-Rekonstruktionen von historischer Architektur";"Heike Messemer";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Digitale 3D-Rekonstruktionen von historischer Architektur werden seit über 30 Jahren im wissenschaftlichen Kontext erstellt und als Präsentationsmedien und Forschungswerkzeuge verwendet. Sie tragen nicht nur dazu bei, Erkenntnisse und Hypothesen zu einem Bauwerk zu visualisieren, sondern sie können auch im Laufe des Erstellungsprozesses neue Forschungsfragen aufwerfen sowie neue Erkenntnisse befördern. Insofern stellen sie vor dem Hintergrund der Digital Humanities ernstzunehmende Forschungsbeiträge dar, die entsprechend wissenschaftlich rezipiert werden sollten. Allerdings zeigt sich bei der kunsthistorischen Analyse von Projekten zur digitalen Rekonstruktion von historischer Architektur, dass nicht immer eine Rezeption der 3D-Modelle in der Wissenschaftscommunity erfolgt, beispielsweise bei einer späteren Rekonstruktion desselben Bauwerks. Anhand von zwei Beispielen wird dies veranschaulicht, wobei mögliche Ursachen erörtert und Lösungsmöglichkeiten vorgeschlagen werden. Ziel ist es, damit zur Erhöhung der internationalen Sichtbarkeit und Rezeption von wissenschaftlichen 3D-Rekonstruktionen in der Wissenschaftscommunity beizutragen und so einen disziplinübergreifenden Diskurs anzuregen. " "27.03.2019";"09:00";"10:30";"HZ4";;"Session";"Session Text und Visualisierung";"Anne Klammt";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "27.03.2019";"09:00";"10:30";"HZ4";"Vortrag_256";"Vortrag";"Session Text und Visualisierung";"Anne Klammt";"Vortrag Skalierbare Exploration. Prototypenstudie zur Visualisierung einer Autorenbibliothek am Beispiel der ”ºHandbibliothek Theodor Fontanes”¹";"Mark-Jan Bludau";"Urban Complexity Lab Fachhochschule Potsdam";"Deutschland";"Viktoria Brüggemann";"Urban Complexity Lab Fachhochschule Potsdam";"Deutschland";"Marian Dörk";"Urban Complexity Lab Fachhochschule Potsdam";"Deutschland";"Kristina Genzel";"Potsdam";"Deutschland";"Klaus-Peter Möller";"Theodor-Fontane-Archiv Universität Potsdam";"Deutschland";"Sabine Seifert";"Theodor-Fontane-Archiv Universität Potsdam";"Deutschland";"Peer Trilcke";"Theodor-Fontane-Archiv Universität Potsdam";"Deutschland";;;;;;;;;;"Der Beitrag stellt einen vom Theodor-Fontane-Archiv der Universität Potsdam in Kooperation mit der Fachhochschule Potsdam entwickelten Prototyp zur explorier- und skalierbaren Visualisierung einer Autor*innenbibliothek und der darin enthaltenen Lektürespuren vor. Ziel ist die Verbindung gestaltungsorientierte Ansätze zur Visualisierung kultureller Sammlungen mit philologisch-, archiv- und bibliothekswissenschaftlichen Forschungsfragen.Das im Projekt entwickelte Visualisierungskonzept legt einen besonderen Fokus auf die kontinuierliche, auf mehreren Granularitätsebenen zoom- und filterbare Navigation innerhalb einer Autorenbibliothek, die die Erkundung einzelner Objekte ebenso zulässt wie deren Vergleich. Die Erfahr- und Erfassbarkeit der Sammlung als Ganzes und der sich in ihr abbildenden Lektüre- und Benutzungsmuster stehen dabei ebenso im Zentrum wie Zugänge zu Einzelphänomenen." "27.03.2019";"09:00";"10:30";"HZ4";"Vortrag_138";"Vortrag";"Session Text und Visualisierung";"Anne Klammt";"Vortrag Vom Text zum Bild und wieder zurück";"Maria Christoforaki";"Universität Passau";"Deutschland";"Bernhard Bermeitinger";"Universität Passau";"Deutschland";"Simon Donig";"Universität Passau";"Deutschland";"Siegfried Handschuh";"Universität St. Gallen";"Schweiz";;;;;;;;;;;;;;;;;;;"Mit diesem Beitrag präsentieren wir einen multimodalen Zugang, der den Klassifizierungs- und Analyseprozess von Bilddaten verbessern soll. Dabei führen wir semantischen Kontext in den Prozess der automatisierten Bildanalyse ein.Hierzu stellen wir eine neue Kombination von Deep-Learning Techniken von Bildmerkmalen mit Verfahren aus dem Bereich der Distributional Semantics vor, die gewöhnlich im NLP zum Einsatz kommen. Wir präsentieren die Forschungshypothese und die bislang vorliegenden Ergebnisse auf einem Bild- und Textkorpus, der Teil des Neoclassica-Rahmenwerks ist. Dieser Ansatz steht im Kontext unseres Bemühens, die automatisierte Analyse und Semantisierung von Raumkunst in Bildwerken zu verbessern, welche klassizistische Interieurs zeigen." "27.03.2019";"09:00";"10:30";"HZ4";"Vortrag_275";"Vortrag";"Session Text und Visualisierung";"Anne Klammt";"Vortrag Social Media, YouTube und Co: Multimediale, multimodale und multicodierte Dissemination von Forschungsmethoden in forTEXT";"Mareike Schumacher";"Universität Hamburg";"Deutschland";"Jan Horstmann";"Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Die Bedeutung von Social Media in den DH als Gegenstand der Analyse (Gao et al. 2018, Reid 2011) als auch zunehmend für die Dissemination von Forschungsergebnissen (Ross 2012) wächst. Vor allem in Blogs und Twitter wurde großes Potential für Diskussionen und die Verbreitung von Ergebnissen erkannt (Puschmann/Bastos 2015, Terras 2012). Auch in der Wissenschaftskommunikation zeigt sich die Relevanz von Webmedien (Brossard 2013, 14096–14101) und ihr besonderer Beitrag zur „scientific literacy” (Schäfer 2017, 283). Generell bietet (informelle) Wissenschaftskommunikation über Webmedien noch viel ungenutztes Potential (Schäfer 2017, 279–280, Neuberger 2014, Voigt 2012).Unser Beitrag zeigt, wie eine multimediale und multimodale webbasierte Strategie die Dissemination von Digital-Humanities-Methoden unterstützen und die Wissenschaftskommunikation des Forschungsfeldes stärken kann. Die quantitative Analyse der Erfolge dieser Strategie lässt Rückschlüsse darauf zu, welche Methode wem wie vermittelt werden sollte und bildet daher eine wichtige Basis für die Konzeption von Forschungsprojekten und der universitären Lehre." "27.03.2019";"09:00";"10:30";"HZ5";;"Session";"Session Korpora";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "27.03.2019";"09:00";"10:30";"HZ5";"Vortrag_134";"Vortrag";"Session Korpora";;"Vortrag Das Redewiedergabe-Korpus";"Annelen Brunner";"Institut für Deutsche Sprache";"Deutschland";"Lukas Weimer";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Ngoc Duyen Tanja Tu";"Institut für Deutsche Sprache";"Deutschland";"Stefan Engelberg";"Institut für Deutsche Sprache";"Deutschland";"Fotis Jannidis";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;"In diesem Beitrag wird das Redewiedergabe-Korpus (RW-Korpus) vorgestellt, ein historisches Korpus fiktionaler und nicht-fiktionaler Texte, das eine detaillierte manuelle Annotation mit Redewiedergabeformen enthält. Das Korpus entsteht im Rahmen eines laufenden DFG-Projekts und ist noch nicht endgültig abgeschlossen, jedoch ist für Frühjahr 2019 ein Beta-Release geplant, welches der Forschungsgemeinschaft zur Verfügung gestellt wird. Das endgültige Release soll im Frühjahr 2020 erfolgen. Das RW-Korpus stellt eine neuartige Ressource für die Redewiedergabe-Forschung dar, die in dieser Detailliertheit für das Deutsche bisher nicht verfügbar ist, und kann sowohl für quantitative linguistische und literaturwissenschaftliche Untersuchungen als auch als Trainingsmaterial für maschinelles Lernen dienen." "27.03.2019";"09:00";"10:30";"HZ5";"Vortrag_150";"Vortrag";"Session Korpora";;"Vortrag Programmable Corpora – Die digitale Literaturwissenschaft zwischen Forschung und Infrastruktur am Beispiel von DraCor";"Frank Fischer";"Higher School of Economics Moskau";"Russland";"Ingo Börner";"Universität Wien";"Österreich";"Mathias Göbel";"Wirtschaftsuniversität Wien";"Österreich";"Angelika Hechtl";"Niedersächsische Staats- und Universitätsbibliothek Göttingen";"Deutschland";"Christopher Kittel";"Karl-Franzens-Universität Graz";"Österreich";"Carsten Milling";"Berlin";"Deutschland";"Peer Trilcke";"Theodor-Fontane-Archiv Universität Potsdam";"Deutschland";;;;;;;;;;"Obwohl sich infrastrukturell einiges getan hat, ist der Hauptoperationsmodus der digitalen Literaturwissenschaft immer noch der, eine bestimmte Forschungsmethode auf ein oft nur ephemeres Korpus anzuwenden. Im besten Fall ist das Ergebnis irgendwie reproduzierbar, im schlechtesten Fall gar nicht. Im besten Fall gibt es ein offen zugängliches Korpus in einem Standardformat wie TEI, einer anderen Markup-Sprache oder zumindest als txt-Datei. Im schlechtesten Fall ist das Korpus gar nicht zugänglich, d.h., die Forschungsergebnisse müssen einfach hingenommen werden. Doch seit kurzem gibt es Anzeichen, dass sich das ändert. Einige Projekte stellen Schnittstellen zur Verfügung, über die man mannigfaltige Zugriffsmöglichkeiten auf Korpora bekommt. Eines dieser Projekte ist DraCor, eine offene Plattform zur Dramenforschung, die in diesem Vortrag vorgestellt werden soll (zugänglich unter https://dracor.org/ bzw. über die Repos und die API). DraCor transformiert vorliegende Textsammlungen zu ”ºProgrammable Corpora”¹ – ein neuer Begriff, den wir mit diesem Vortrag ins Spiel bringen möchten." "27.03.2019";"09:00";"10:30";"HZ5";"Vortrag_191";"Vortrag";"Session Korpora";;"Vortrag Korpuserstellung als literaturwissenschaftliche Aufgabe";"Evelyn Gius";"Universität Hamburg";"Deutschland";"Katharina Krüger";"Universität Hamburg";"Deutschland";"Carla Sökefeld";"Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Die Zusammenstellung von Primärtexten zu einem Korpus ist eine gängige, aber selten problematisierte literaturwissenschaftliche Praxis. Die Gefahr von Fehlschlüssen aufgrund bestimmter, nicht bewusster Eigenschaften des Korpus ist nämlich relativ hoch und steigt sowohl mit der Größe eines Korpus als auch mit dem Grad der Automatisierung der Analyse. Deshalb muss ein besonderes Augenmerk auf die Zusammenstellung digitaler Korpora gelegt werden, um sie als literaturwissenschaftlichen Untersuchungsgegenstand nutzen zu können. Dies betrifft insbesondere den immer häufigeren Fall, in dem Korpora aus qualitativ unterschiedlichen Texten aus verschiedenen Quellen zusammengestellt werden. Im Beitrag wird exemplarisch die Zusammenstellung und Bereinigung eines Korpus beschrieben, die eine Balance zwischen der Qualität der Daten und den Aufwand bei der Korpuserstellung herzustellen versucht. " "27.03.2019";"11:00";"12:30";"HZ3";"Panel_154";"Panel";"Session Korpora";;"Panel Zeitungen und Zeitschriften als multimodale, digitale Forschungsobjekte: Theorien und Methoden";"Nanette Rißler-Pipka";"Karlsruher Institut für Technologie";"Deutschland";"Dario Kampkaspar";"Österreichische Akademie der Wissenschaften";"Österreich";"Teresa Herzgsell";"Eberhard Karls Universität Tübingen";"Deutschland";"Jörg Lehmann";"Eberhard Karls Universität Tübingen";"Deutschland";"Clemens Neudecker";"Staatsbibliothek zu Berlin - Preußischer Kulturbesitz";"Deutschland";"Claudia Resch";"Österreichische Akademie der Wissenschaften";"Österreich";;;;;;;;;;;;;"Aus den Besonderheiten der Medien Zeitung und Zeitschrift, die in den multimodalen Eigenschaften begründet sind, ergeben sich Fragestellungen, die eine Umwandlung der Originale in digitale Forschungsobjekte ebenso betreffen wie die darauf stattfindende Analyse. Das Panel gibt dazu Impulse bezüglich Theorien und Methoden, die in einer gemeinsamen Diskussion mit dem Publikum erörtert werden sollen. Die einzelnen kurzen Panelbeiträge setzen sich aus Beispielen der Forschung und Digitalisierung zusammen und werden von Akteuren aus beiden Feldern präsentiert. Gemeinsame Fragen sind: Welche für die Forschung relevanten Elemente werden im digitalen Forschungsobjekt repräsentiert? Wie können die Daten und Metadaten für die Analyse genutzt werden? Wie verändert sich die Forschung und ihre Fragestellungen durch die Arbeit am und mit dem digitalen Forschungsobjekt?" "27.03.2019";"11:00";"12:30";"HZ4";;"Session";"Session Analyse visueller Medien";"Manuel Burghardt";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "27.03.2019";"11:00";"12:30";"HZ4";"Vortrag_212";"Vortrag";"Session Analyse visueller Medien";"Manuel Burghardt";"Vortrag Multimodale Stilometrie: Herausforderungen und Potenzial kombinatorischer Bild- und Textanalysen am Beispiel Comics";"Alexander Dunst";"Universität Paderborn";"Deutschland";"Rita Hartel";"Universität Paderborn";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Stilometrische Untersuchungen blicken auf eine lange Tradition in der Literaturwissenschaft zurück. Im Gegensatz dazu befinden sich quantitative Untersuchungen des Stils visueller Kunst und multimodaler Medien in einem frühen Experimentierstadium. Dabei konzentriert sich die stilistische Klassifikation bisher entweder auf visuelle oder sprachliche Kanäle. Im Folgenden werden erste Untersuchungen vorgestellt, die auf Basis eines Corpus an englischsprachigen Comicbüchern – so genannten „Graphic Novels“ – visuelle und Textstilometrie kombinieren." "27.03.2019";"11:00";"12:30";"HZ4";"Vortrag_131";"Vortrag";"Session Analyse visueller Medien";"Manuel Burghardt";"Vortrag Den Menschen als Zeichen lesen. Quantitative Lesarten körperlicher Zeichenhaftigkeit in visuellen Medien";"Gernot Howanitz";"Universität Passau";"Deutschland";"Erik Radisch";"Universität Passau";"Deutschland";"Jan-Oliver Decker";"Universität Passau";"Deutschland";"Malte Rehbein";"Universität Passau";"Deutschland";;;;;;;;;;;;;;;;;;;"Der Vortrag präsentiert einen Zugang, der es Kulturwissenschaftlern ermöglicht, große Bild- und Videokorpora in einem Methodenmix sowohl qualitativer als auch quantitativer Verfahren zu erfassen. Jurij Lotmans (1984) semiotischen Ansätzen folgend werden menschliche (Ab-)Bilder zeichenhaft in visuellen Korpora gelesen. Als Beispielkorpus dient uns eine Sammlung von Starpostkarten aus den 1930er und 1940er Jahren. Ziel ist es, ähnlich wie bei Distant Reading-Ansätzen zu versuchen, versteckte Muster, Gemeinsamkeiten und Abweichungen „aus der Ferne“ identifizieren zu können. Um menschliche Abbildungen in visuellen Korpora möglichst umfassend analysieren zu können, schlagen wir eine dreistufige Herangehensweise vor, nämlich die Identifikation einzelner Personen, die Analyse von Körperhaltungen, sowie die Mimikerfassung. Ein zusätzliches Ziel unseres Beitrages ist es, eine nutzerfreundliche Umgebung vorzustellen, die auf Jupyter Notebooks aufbauend die niederschwellige Arbeit mit hochkomplexen Bildkorpora erlaubt." "27.03.2019";"11:00";"12:30";"HZ4";"Vortrag_159";"Vortrag";"Session Analyse visueller Medien";"Manuel Burghardt";"Vortrag Grundzüge einer visuellen Stilometrie";"Jochen Laubrock";"Universität Potsdam";"Deutschland";"David Dubray";"Universität Potsdam";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Was kennzeichnet visuellen Stil? Die Frage nach einer formalen Beschreibung hat die kunstgeschichtlichen Forschung seit ihrem Beginn umgetrieben. Neuere Entwicklungen im Bereich des maschinellen Sehens lassen nun eine formale Beschreibung visuellen Stils greifbar werden. Diese basiert auf Repräsentationen in den tieferen Schichten sogenannter Convolutional Neural Networks (CNNs). Hier zeigen wir am Beispiel einer Analyse verschiedener Corpora grafischer Literatur (Graphic Narrative Corpus, Manga109), das CNNs sich dazu eignen, stilistische Aspekte und kompositorische Aspekte wie Textur oder Layout zu repräsentieren. Durch Anpassung eines für die semantische Kategorisierung von Fotos vortrainierten XCeption-Netzes auf die Klassifikation von Illutratoren zeigen wir insbesondere, dass die Repräsentationen auf tieferen Netzwerkebenen so generisch zu sind, dass eine bloße Rekombination dieser vortrainierten Merkmale zu sehr guter Performanz in beiden Korpora führt. Wir stellen eine bildbasierte Suche vor, die auf diesen Repräsentationen basiert und zeigen Visualisierungen der diskriminativsten Merkmale auf verschiedenen Ebenen." "27.03.2019";"11:00";"12:30";"HZ5";"Panel_238";"Panel";;;"Panel Das Wissen in der 3D-Rekonstruktion";"Sander Münster";"Technische Universität Dresden";"Deutschland";"Piotr Kuroczy?ski";"Hochschule Mainz – University of Applied Sciences";"Deutschland";"Heike Messemer";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Peggy Große";"Germanisches Nationalmuseum Nürnberg";"Deutschland";"Florian Niebling";"Julius-Maximilians-Universität";"Deutschland";;;;;;;;;;;;;;;;"Das Panel wird gemeinsam von der Arbeitsgemeinschaft Digitale Rekonstruktion des Digital Humanities im deutschsprachigen Raum (DHd) e.V.“ und dem wissenschaftlichen Netzwerk ""Digitale 3D Rekonstruktionen als Werkzeuge der architekturgeschichtlichen Forschung"" von Netzwerk und AG ein Panel durchgeführt und soll die drei Kernpunkte der DHd-Jahrestagung 2019 – Theorie, Modellierung, Synthese – unter dem Blickwinkel der 3D-Rekonstruktion auf-greifen. Ein wesentliches Kernmerkmal von 3D-Rekonstruktionen ist, dass diese auf die Genese, Transformation und Vermittlung von Wissen abzielen. Entsprechend ist das Ziel des für die DHd-Jahrestagung 2019 geplanten Panels, insbesondere den Umgang mit Wissen vor dem Hin-tergrund eines Erkenntnis- oder Vermittlungsinteresses zu thematisieren und dabei jeweils kon-trastierende und/oder komplementäre Perspektiven darzulegen." "27.03.2019";"14:00";"15:30";"HZ3";;"Session";"Session Schrift und Zeichen";"Tobias Hodel";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "27.03.2019";"14:00";"15:30";"HZ3";"Vortrag_161";"Vortrag";"Session Schrift und Zeichen";"Tobias Hodel";"Vortrag Jadescheibe oder Kreis – Reflexion über manuelle und automatisierte Erkennung von Schriftzeichen der vorspanischen Mayakultur";"Christian Prager";"Rheinische Friedrich-Wilhelms-Universität Bonn";"Deutschland";"Hubert Mara";"Universität Heidelberg";"Deutschland";"Bartosz Bogacz";"Universität Heidelberg";"Deutschland";"Felix Feldmann";"Universität Heidelberg";"Deutschland";;;;;;;;;;;;;;;;;;;"In unserem Vortrag präsentieren wir Ergebnisse einer laufenden, interdisziplinären Kooperation im Bereich digitaler Epigraphie zwischen dem Akademievorhaben ""Textdatenbank und Wörterbuch des Klassischen Maya""und einem auf Schriftforschung spezialisierten Team am Interdisciplinary Center for Scientific Computing. Im Mittelpunkt der Zusammenarbeit zwischen Schriftforschung und angewandter Informatik steht die vollautomatische Erkennung von Zeichen der Hieroglyphenschrift der Klassischen Mayakultur in 3D (Zeitraum: 250 - 900 n.Chr., Region: südliches Mexiko, Guatemala, Belize und Honduras). Wir präsentieren Methoden, Herausforderungen und Ergebnisse und zeigen am Material auf, wo Fortschritte und Durchbrüche erzielt, aber auch Grenzen der automatisierten Erkennung von Maya-Schriftzeichen festgestellt wurden." "27.03.2019";"14:00";"15:30";"HZ3";"Vortrag_120";"Vortrag";"Session Schrift und Zeichen";"Tobias Hodel";"Vortrag State of the Art Optical Character Recognition of 19th Century Fraktur Scripts using Open Source Engines";"Christian Reul";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Uwe Springmann";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Christoph Wick";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Frank Puppe";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;;;;"In this paper we evaluate Optical Character Recognition (OCR) of 19th century Fraktur scripts without book-specific training using mixed models, i.e. models trained to recognize a variety of fonts and typesets from previously unseen sources. We describe the training process leading to strong mixed OCR models and compare them to freely available models of the popular open source engines OCRopus and Tesseract as well as the commercial state of the art system ABBYY. For evaluation, we use a varied collection of unseen data from books, journals, and a dictionary from the 19th century. The experiments show that training mixed models with real data is superior to training with synthetic data and that the novel OCR engine Calamari outperforms the other engines considerably, on average reducing ABBYYs character error rate (CER) by over 70%, resulting in an average CER below 1%." "27.03.2019";"14:00";"15:30";"HZ3";"Vortrag_279";"Vortrag";"Session Schrift und Zeichen";"Tobias Hodel";"Vortrag Automatic Font Group Recognition in Early Printed Books";"Nikolaus Weichselbaumer";"Johannes Gutenberg-Universität Mainz";"Deutschland";"Mathias Seuret";"Friedrich-Alexander-Universität Erlangen-Nürnberg";"Deutschland";"Saskia Limbach";"Johannes Gutenberg-Universität Mainz";"Deutschland";"Vincent Christlein";"Friedrich-Alexander-Universität Erlangen-Nürnberg";"Deutschland";"Andreas Maier";"Friedrich-Alexander-Universität Erlangen-Nürnberg";"Deutschland";;;;;;;;;;;;;;;;"Vorstellung eines Ansatzes zur Automatischen Erkennung von Schriftarten in Digitalisaten alter Drucke mithilfe eines neuronalen Netzwerks." "27.03.2019";"14:00";"15:30";"HZ4";"Panel_286";"Panel";;;"Panel Wie es Euch gefällt? Perspektiven wissenschaftsgeleiteter Organisationsformen des Datenmanagements für die Geisteswissenschaften";"Ulrike Wuttke";"Fachhochschule Potsdam";"Deutschland";"Jonathan Blumtritt";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Patrick Helling";"Universität zu Köln";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Der Prozess der Bildung einer nationalen Forschungsdateninfrastruktur (NFDI), der durch die Veröffentlichung des Positionspapiers „Leistung aus Vielfalt“ (RfII 2016) durch den RfII und das BMBF eingeleitet wurde, trifft auf einen bereits in Bewegung befindlichen Prozess der Selbstorganisation der Akteure im Bereich des geisteswissenschaftlichen Forschungsdatenmanagements. 24 Institutionen aus Deutschland, Österreich und der Schweiz kommen mittlerweile in der AG Datenzentren des DHd-Verbands zusammen und nutzen das Forum zur Abstimmung und gemeinsamen Interessenvertretung. Die Zusammensetzung der AG ist ein Abbild der Vielfalt innerhalb der Forschungsdatenlandschaft. Die einzelnen Zentren verfügen über verschiedene Förderungs- und Finanzierungsmodelle, strategische Ausrichtungen und institutionelle Verortung. Fachspezifische, methodenbasierte, Datentyp-orientierte, institutionelle oder politisch-geographische Zuständigkeiten und Zugänglichkeiten stehen nebeneinander. In diesem Panel möchte die AG Datenzentren unterschiedliche Perspektiven zur Gestaltung von Organisationsformen im geisteswissenschaftlichen Datenmanagement zu Wort kommen lassen, Herausforderungen und Lösungswege mit Vertreter*innen der Fachcommunities diskutieren und damit auch einen Beitrag zum übergreifenden Diskurs zur Bildung einer NFDI leisten." "27.03.2019";"14:00";"15:30";"HZ5";;"Session";"Session Text - Sprache - Wörter";"Caroline Sporleder";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "27.03.2019";"14:00";"15:30";"HZ5";"Vortrag_153";"Vortrag";"Session Text - Sprache - Wörter";"Caroline Sporleder";"Vortrag Das GeSIG-Inventar: Eine Ressource für die Erforschung und Vermittlung der Wissenschaftssprache der Geisteswissenschaften";"Cordula Meißner";"Universität Leipzig";"Deutschland";"Franziska Wallner";"Universität Leipzig";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Sprache hat für die Wissensgewinnung in geisteswissenschaftlichen Disziplinen eine besondere Bedeutung. Dabei ist insbesondere jener Wortschatzbereich zentral, der Ausdrucksmittel für wissensmethodologische Inhalte bereitstellt – der Bereich der fachübergreifend gebrauchten Lexik. Dieser Wortschatzbereich war für die geisteswissenschaftlichen Fächer jedoch bislang empirisch nicht erschlossen. Der Beitrag stellt Ergebnisse eines Projekts vor, in dem der fachübergreifend gebrauchte Wortschatz – das gemeinsame sprachliche Inventar – der Geisteswissenschaften (GeSIG-Inventar) datengeleitet ermittelt wurde. Das GeSIG-Inventar steht nun als Ressource für die Erforschung und Vermittlung der Wissenschaftssprache der Geisteswissenschaften zur Verfügung. Im Beitrag wird zunächst das Inventar vorgestellt und auf das methodische Vorgehen zu seiner Ermittlung eingegangen. Daraufhin werden Anwendungsfelder aufgezeigt, in denen das GeSIG-Inventar genutzt werden kann. Abschließend wird ein konkreter wissenschaftspropädeutischer Anwendungsfall vorgestellt." "27.03.2019";"14:00";"15:30";"HZ5";"Vortrag_109";"Vortrag";"Session Text - Sprache - Wörter";"Caroline Sporleder";"Vortrag Von Wirtschaftsweisen und Topic Models: 50 Jahre ökonomische Expertise aus einer Text Mining Perspektive";"Lino Wehrheim";"Universität Regensburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Auch für zeit- und wirtschaftshistorische Forschungsfragen ergeben sich durch die Zunahme digitaler Textbestände neue Herausforderungen und Möglichkeiten. Im vorliegenden Beitrag wird der Frage nachgegangen, wie die automatisierte Inhaltsanalyse mittels Topic Modelling für die Untersuchung eines historisch bedeutsamen Korpus eingesetzt werden kann: der Jahresgutachten des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung, eines der prominentesten Gremien in der ökonomischen Politikberatung. Es soll gezeigt werden, wie Methoden des Text Mining im Allgemeinen und Topic Models im Speziellen einen neuen Zugang zur historischen Analyse des Schaffens der oftmals als „Wirtschaftsweisen“ betitelten Wirtschaftsexperten eröffnen und damit die mehr als 50-jährige Schaffenszeit des Rates in ihrer Gänze in den Blick genommen werden kann. Dazu werden die Themen aller zwischen 1965 und 2015 veröffentlichten Gutachten, ein Korpus von etwa sieben Millionen Wörtern, mit Hilfe eines Topic Models dargestellt, mit der tatsächlichen Wirtschaftsentwicklung abgeglichen sowie weitere Möglichkeiten des Topic Modelling-Ansatzes illustriert." "27.03.2019";"14:00";"15:30";"HZ5";"Vortrag_198";"Vortrag";"Session Text - Sprache - Wörter";"Caroline Sporleder";"Vortrag Die Generierung von Wortfeldern und ihre Nutzung als Findeheuristik. Ein Erfahrungsbericht zum Wortfeld „medizinisches Personal“";"Benedikt Adelmann";"Universität Hamburg";"Deutschland";"Lina Franken";"Universität Hamburg";"Deutschland";"Evelyn Gius";"Universität Hamburg";"Deutschland";"Katharina Krüger";"Universität Hamburg";"Deutschland";"Michael Vauth";"Technische Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;"Bei der Arbeit mit Textkorpora ist das computergestützte Auffinden von für die Fragestellung relevanten Texten oder Textpassagen oft eine notwendige Voraussetzung für die weitere Analyse. Für das Finden relevanter Texte bzw. Passagen können Wortfelder generiert und genutzt werden, die die Kerninhalte des Gesuchten durch Schlüsselwörter operationalisieren. Wir stellen drei Verfahren der Wortfeldgenerierung vor, die von der Erstellung aus bestehenden Ressourcen über die manuelle Generierung bis hin zu stark automatisierten Vorgehensweisen reichen. Im Anschluss wird der Einsatz dieser Wortfelder anhand von literaturwissenschaftlichen und kulturanthropologischen Daten vorgestellt. Durch die unterschiedlichen Methoden der Wortfeldgenerierung ist eine Verbindung textinhärenter und textunabhängiger Aspekte möglich, also das Berücksichtigen induktiver und deduktiver Ansätze für die Nutzung von Wortfeldern als Findeheuristik." "28.03.2019";"09:00";"10:30";"HZ3";;"Session";"Session Sammlungen erschließen und vermitteln";"Lisa Dieckmann";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"09:00";"10:30";"HZ3";"Vortrag_242";"Vortrag";"Session Sammlungen erschließen und vermitteln";"Lisa Dieckmann";"Vortrag Wie katalogisiert man eigentlich virtuelle Realität? Überlegungen zur Dokumentation und Vernetzung musealer Objekte und digitaler Vermittlungsformate";"Franziska Diehr";"Stiftung Preußischer Kulturbesitz";"Deutschland";"Katrin Glinka";"Stiftung Preußischer Kulturbesitz";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Als Experimentierlabor zur Entwicklung, Erprobung und Evaluierung digitaler Werkzeuge und Strategien im Kontext musealer Forschung und Vermittlung untersucht das Verbundprojekt ”˜museum4punkt0”™ neue Wege der digitalen Transformation von Kulturinstitutionen. In modular strukturierten Teilprojekten werden digitale Vermittlungs- und Kommunikationsformate geschaffen, die multimediale und -modale Angebote im Museum erproben. Mit der prototypischen Entwicklung des ”˜Gemeinsamen Objektkatalogs”™ werden Möglichkeiten der Dokumentation und Analyse von digitalen Objekten unter Beachtung von musealen Objektrepräsentationen, multiperspektivischen Verhandlungen von Objektwissen und den jeweiligen Anwendungskontexten erforscht. Dabei soll eine vielfältige Sicht auf Instrumente, Methoden und Objekte der musealen Wissensvermittlung ermöglicht werden. Der Objektkatalog wird außerdem Informationen zu digitalen Vermittlungsinstrumenten und Narrationsformaten mit kuratorischen, kreativen und informationstechnologischen Schaffensprozessen sowie musealen Objekten in einer gemeinsamen Wissensbasis vernetzen. Das Potenzial musealer Bestände und Methoden für die Analyse und Kontextualisierung (inter-)disziplinärer Fragestellungen der (geistes-)wissenschaftlichen Forschung soll damit herausgearbeitet werden. Dafür wird erprobt, wie museale Dokumentationssysteme mit Datenanalyse- und Annotationswerkzeugen verschränkt werden können." "28.03.2019";"09:00";"10:30";"HZ3";"Vortrag_294";"Vortrag";"Session Sammlungen erschließen und vermitteln";"Lisa Dieckmann";"Vortrag Visualisierung zwischen Pluralismus und Fragmentierung: Zur Integration von multiplen Perspektiven auf kulturelle Sammlungen";"Eva Mayr";"Donau Universität Krems";"Österreich";"Florian Windhager";"Donau Universität Krems";"Österreich";"Günther Schreder";"Donau Universität Krems";"Österreich";;;;;;;;;;;;;;;;;;;;;;"Informationsvisualisierungen ermöglichen multiple analytische Einblicke in die Struktur von kulturellen Sammlungen. Um jedoch der Reichhaltigkeit und Multidimensionalität kultureller Daten gerecht zu werden, bedarf es Techniken, die die BesucherInnen bei der Integration dieser verschiedenen Perspektiven unterstützen. Im Projekt PolyCube (""Towards integrated mental models of cultural heritage data"") wurde ein Visualisierungssystem entwickelt, dass die Benutzer auf drei Ebenen bei der Informationsintegration unterstützt: Bei der Integration von abstrakten Überblicksdarstellungen auf Sammlungsebene (“distant viewing”) mit Detaildarstellungen von Objekten (“close viewing”), bei der Integration von mehreren Datendimensionen innerhalb einer Visualisierung, und bei der Integration von mehreren parallelen Visualisierungen . Wir präsentieren den im Projekt entwickelten Prototypen und zeigen, wie er BenutzerInnen verschiedener Forschungs-Communities künftig bei der Analyse ihrer eigenen digitalen Kultursammlungen unterstützen kann." "28.03.2019";"09:00";"10:30";"HZ3";"Vortrag_144";"Vortrag";"Session Sammlungen erschließen und vermitteln";"Lisa Dieckmann";"Vortrag Über die Ungleichheit im Gleichen. Erkennung unterschiedlicher Reproduktionen desselben Objekts in kunsthistorischen Bildbeständen";"Stefanie Schneider";"Ludwig-Maximilians-Universität München";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Aufgrund nicht-standardisierter oder unstrukturierter Metadaten ist es in der Regel nicht möglich, Reproduktionen ein und desselben Objekts, wie sie in kunsthistorischen Aggregatordatenbanken vorgehalten werden, auf Basis dieser nachhaltig und zuverlässig zu verknüpfen. Unser Ansatz stützt sich auf die Digitalisate selbst und extrahiert aus ihnen mittels SIFT und mehreren, die Effizienz steigernden Erweiterungen lokale Schlüsselpunkte, die den Grad der Nähe zwischen zwei Reproduktionen zu quantifizieren erlauben. Es zeigt sich, dass die präsentierte Methode hinreichend exakte Ergebnisse erwarten lässt und kaum, oder nur im Falle spezialisierter Korpora, manuelle Adjustierungen erfordert" "28.03.2019";"09:00";"10:30";"HZ4";;"Session";"Session Medialität jenseits von Text";"Thorsten Wübbena";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"09:00";"10:30";"HZ4";"Vortrag_223";"Vortrag";"Session Medialität jenseits von Text";"Thorsten Wübbena";"Vortrag Oral History und Digital Humanities";"Cord Pagenstecher";"Freie Universität Berlin";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Digitale Technologien ermöglichen die softwaregestützte Sicherung, Erschließung und Bereitstellung von Interview-Sammlungen sowie ihre sammlungsübergreifende Recherche und Analyse. Anhand der an der Freien Universität zugänglichen digitalen Interview-Sammlungen skizziert der Beitrag ihre Nutzungsmöglichkeiten für Oral History und Digital Humanities.Während Oral Historians traditionell meist wenige Interviews anhand der Transkripte analysierten, unterstützen digitale Interview-Archive nun vergleichende Untersuchungen anhand der originalen Audio- und Videodateien. Allerdings steht die digitale Aufbereitung von Oral History-Sammlungen auch vor großen Herausforderungen, etwa im Hinblick auf Persönlichkeitssschutz und Langzeitarchivierung.An einigen Beispielen werden prototypisch die Möglichkeiten einer digital unterstützten Interview-Analyse im Hinblick auf Multiperspektivität, Multimodalität und Multilingualität herausgearbeitet. Deutlich wird, dass die Digital Humanities der Oral History neue und faszinierende Forschungsperspektiven eröffnen." "28.03.2019";"09:00";"10:30";"HZ4";"Vortrag_252";"Vortrag";"Session Medialität jenseits von Text";"Thorsten Wübbena";"Vortrag Scalable Viewing in den Filmwissenschaften";"Manuel Burghardt";"Universität Leipzig";"Deutschland";"Johannes Pause";"Universität Luxemburg";"Luxemburg";"Niels-Oliver Walkowski";"Berlin";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Der vorliegende Beitrag greift das Konferenzmotto „multimedial, multimodal“ der DHd 2019 durch die Einführung des methodischen Konzepts des Scalable Viewings im Kontext filmwissenschaftlicher Forschung auf. Angelehnt an Designprinzipien aus dem Feld der Datenvisualisierung und ersten Beiträgen zu einer Idee des Scalable Readings möchte der Begriff Scalable Viewing eine dynamische, multi-perspektivische Repräsentation von Forschungsdaten als methodischen Kernbestandteil einer computergestützten Filmanalyse systematisieren. Diese Systematisierung ist die Folge zweier Forschungsprojekte, die sich mit Aspekten wie der Farbigkeit, ästhetischen Reizen, Figuren, dem Schnitt sowie Dialogen und Filmskripten auseinandergesetzt haben und die zur Illustration des Scalable Viewing-Konzepts im Rahmen des Vortrags vorgestellt werden." "28.03.2019";"09:00";"10:30";"HZ4";"Vortrag_145";"Vortrag";"Session Medialität jenseits von Text";"Thorsten Wübbena";"Vortrag Tanz annotieren - Zur Entstehung, den Möglichkeiten und den Perspektiven digitaler Methoden in der Tanzwissenschaft";"David Rittershaus";"Hochschule Mainz - University of Applied Sciences";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Der Einsatz digitaler Methoden und ihre Erforschung stehen in der Tanzwissenschaft noch ganz am Anfang, finden aber zunehmend eine Grundlage durch wachsende Datenbestände, sowie die Entwicklung spezieller Software. Der Vortrag geht auf den Einsatz digitaler Technologien rund um die Arbeit des Choreographen William Forsythe und die Rolle von Annotationen darin ein. Im Zentrum steht dabei die Webanwendung Piecemaker, die innerhalb seines Ensembles The Forsythe Company entstand und die eine gleichzeitige Aufzeichnung von Video und Annotationen im Tanzstudio ermöglicht. Sie wird heute von dem Forschungsprojekt Motion Bank an der Hochschule Mainz weiterentwickelt und eingesetzt. Während sich für digitale qualitative Methoden in der Tanzwissenschaft eine klare Perspektive abzeichnet, sind mit der maschinellen und quantitativen Auswertung tanzbezogener Daten viele offene Fragen verbunden, insbesondere angesichts der narrativen Qualität von Tanzwissen und den Singularitäten, mit denen der Tanz die Wissenschaft konfrontiert." "28.03.2019";"09:00";"10:30";"HZ5";;"Session";"Session Analyse bei Dramen und Romanen";"Christof Schöch";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"09:00";"10:30";"HZ5";"Vortrag_239";"Vortrag";"Session Analyse bei Dramen und Romanen";"Christof Schöch";"Vortrag Klassifikation von Titelfiguren in deutschsprachigen Dramen und Evaluation am Beispiel von Lessings „Emilia Galotti“";"Benjamin Krautter";"Universität Stuttgart";"Deutschland";"Janis Pagel";"Universität Stuttgart";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Der Idee einer quantitativen und zugleich multidimensionalen Einteilung dramatischer Figuren folgend versuchen wir Titelfiguren im deutschsprachigen Drama automatisch zu bestimmen. Dazu fassen wir das Problem als Klassifikationsaufgabe, die mit maschinellen Lernverfahren bearbeitet wird. Als Features nutzen wir die gesprochenen Tokens der Figuren, deren Bühnenpräsenz, Netzwerkmetriken, Topic Modeling und einige Metadaten. Wir können zeigen, dass unser multidimensionales Modell sinnvolle Ergebnisse für die Klassifikation titelgebender Figuren liefert: MCC 0.66. Titelfiguren werden sehr zuverlässig erkannt (Recall 1.00), das Modell neigt jedoch zur Übergeneralisierung. Wir evaluieren diese Klassifikationsergebnisse anhand von Lessings ""Emilia Galotti"". " "28.03.2019";"09:00";"10:30";"HZ5";"Vortrag_250";"Vortrag";"Session Analyse bei Dramen und Romanen";"Christof Schöch";"Vortrag Netzwerkanalyse narrativer Informationsvermittlung in Dramen";"Michael Vauth";"Technische Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"In diesem Beitrag wird ein Verfahren vorgestellt, das auf bestehende Netzwerkvisualisierungen dramatischer Texte Bezug nimmt, dabei aber eine spezifische Form der kommunikativen Interaktion zwischen Figuren fokussiert. Auf Annotationen der Dramen Heinrich von Kleists aufbauend wird gezeigt, inwiefern gewichtete, gerichtete und dynamische Figurennetzwerke narrative Infor-mationsvermittlung in der Figurenrede visualisieren können." "28.03.2019";"09:00";"10:30";"HZ5";"Vortrag_149";"Vortrag";"Session Analyse bei Dramen und Romanen";"Christof Schöch";"Vortrag Detecting Character References in Literary Novels using a Two Stage Contextual Deep Learning approach";"Markus Krug";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Sebastian Kempf";"Julius-Maximilians-Universität Würzburg";"Deutschland";"David Schmidt";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Lukas Weimer";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Frank Puppe";"Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;"Current approaches for Named Entity Recognition detect reoccuring names within longer stories again and again in every sentence by modelling the task as a sequence prediction. Character references do sometimes occur in contexts where they can easily be detected (e.g. close to communication verbs) while other contexts might not yield good information. This results in a tagged document in which entities are not detected consistently. In this work we experimented with a two stage approach using contextual deep learning using BiLSTM-CRFs to leverage this problem." "28.03.2019";"11:00";"12:30";"HZ3";;"Session";"Session Datenmodelle und Schnittstellen";"Alexander Czmiel";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"11:00";"12:30";"HZ3";"Vortrag_215";"Vortrag";"Session Datenmodelle und Schnittstellen";"Alexander Czmiel";"Vortrag Interlinked: Schriftzeugnisse der klassischen Mayakultur im Spannungsfeld zwischen Stand-off- und Inlinemarkup in TEI-XML";"Uwe Sikora";"Niedersächsische Staats- und Universitätsbibliothek Göttingen";"Deutschland";"Sven Gronemeyer";"Rheinische Friedrich-Wilhelms-Universität Bonn / La Trobe University";"Deutschland / Australien";"Franziska Diehr";"Stiftung Preußischer Kulturbesitz";"Deutschland";"Elisabeth Wagner";"Rheinische Friedrich-Wilhelms-Universität Bonn";"Deutschland";"Christian Prager";"Rheinische Friedrich-Wilhelms-Universität Bonn";"Deutschland";"Maximilian Brodhun";"Niedersächsische Staats- und Universitätsbibliothek Göttingen";"Deutschland";"Katja Diederichs";"Rheinische Friedrich-Wilhelms-Universität Bonn";"Deutschland";"Nikolai Grube";"Rheinische Friedrich-Wilhelms-Universität Bonn";"Deutschland";;;;;;;"Das Forschungsprojekt Textdatenbank und Wörterbuch des Klassischen Maya kompiliert die Textzeugnisse der klassischen Mayakultur in einem maschinenlesbaren Korpus, das als virtuell verknüpftes Wissensobjekt Schriftforschern multiple Zugriffe auf den Forschungsgegenstand bietet. Durch die Erfassung separater, aber untereinander verknüpfter Informationen wird eine ganzheitliche Erschließung der Mayatexte ermöglicht. Beschreibungen von texttopographisch-strukturellen Phänomenen koexistieren mit inhaltlich-philologischen und linguistischen Beschreibungen unter Einbindung artefakt- und kontextspezifischer Dokumentation - dabei wird die spezifische Semantik und Komplexität jedes einzelnen Beschreibungsschemas berücksichtigt. Unter Verwendung unterschiedlicher Formate (RDF, XML), Standards und Referenzsysteme (CIDOC-CRM, TEI-P5) werden die Texte der Klassischen Mayakultur in einem interlinked Korpus als formalisierte, virtuell zusammengeführte Informationsressourcen erfasst." "28.03.2019";"11:00";"12:30";"HZ3";"Vortrag_269";"Vortrag";"Session Datenmodelle und Schnittstellen";"Alexander Czmiel";"Vortrag Von IIIF zu IPIF? Ein Vorschlag für den Datenaustausch über Personen";"Georg Vogeler";"Universität Graz";"Österreich";"Gunter Vasold";"Universität Graz";"Österreich";"Matthias Schlögl";"Österreichische Akademie der Wissenschaften";"Österreich";;;;;;;;;;;;;;;;;;;;;;"Der Beitrag stellt einen Vorschlag vor, mit dem der Datenaustausch über Personen jenseits allgemeiner Linked Open Data-Lösungen verbessert werden kann. Aufbauend auf dem von Bradley/Short entwickelten Factoid-Datenmodell, bezieht er sichauf technische Lösungen zur Definition von RESTful APIs (OpenAPI) und dem Einsatz einer Upper Level Ontologie des CIDOC-CRM, wie er in der dataforhistory-Initiative propagiert wird. Der Beitrag beschreibt die API-Definition, ordnet sie in die Geschichte der digitalen Prosopographie ein und skizziert Implementationen auf der Seite Datenanbieter wie der der Datenkonsumenten." "28.03.2019";"11:00";"12:30";"HZ3";"Vortrag_267";"Vortrag";"Session Datenmodelle und Schnittstellen";"Alexander Czmiel";"Vortrag Metadaten im Zeitalter von Google Dataset Search";"Jonathan Blumtritt";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Felix Rau";"Data Center for the Humanities Universität zu Köln";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Forschungsdatenzentren und Forschungsinfrastrukturen verwenden einen bedeutenden Teil ihrer personellen und finanziellen Ressourcen für die Modellierung und Kuration von Metadaten auf. Die aktuellen Veränderungen in der Datensatzsuche bedeuten auf der einen Seite, dass Findbarkeit immer weiter aus der Kontrolle der einzelnen Repositorien in die Hand von Metaportalen und kommerziellen Drittanbietern geht. In diesem Beitrag berichten wir aus der Sicht des Spracharchivs Language Archive Cologne, dessen Softwaregrundlage gerade im Rahmen des BMBF Projektes KA³ erneuert wird, über aktuellen und zukünftigen Veränderungen im Bereich Metadaten und Discovery, die für eine nachhaltige Planung berücksichtigt werden müssen." "28.03.2019";"11:00";"12:30";"HZ4";"Panel_270";"Panel";;;"Panel Multimodale Anreicherung von Noteneditionen: Edirom und Datenbank";"Berthold Over";"Johannes Gutenberg-Universität Mainz";"Deutschland";"Martin Albrecht-Hohmaier";"Berlin";"Deutschland";"Kristin Herold";"Universität Paderborn";"Deutschland";"Gesa zur Nieden";"Johannes Gutenberg-Universität Mainz";"Deutschland";"Christine Siegert";"Beethoven-Haus Bonn";"Deutschland";;;;;;;;;;;;;;;;"Opern-Pasticci, d.h. Opern, die aus präexistentem musikalischem Material zusammengestellt wurden, bieten zahlreiche Herausforderungen für die Musikedition. Da die Modularität der Oper des 18. Jahrhunderts mit ihrer standardisierten Abfolge von Rezitativ und Arie einen permanenten Austausch der Module, i.d.R. der Arien, erlaubte, muss die Musikedition diesem Phänomen Rechnung tragen. Dies ist über Edirom ohne weiteres möglich und wird auch bereits praktiziert. Die Verknüpfung von Edirom mit einer kulturwissenschaftlichen Datenbank, in der Informationen zur Provenienz der Arien, zu den Sängern des ursprünglichen Kontexts, ihren Karrieren und Itineraren, zu musikalischen Anpassungen, zu Quellen und ihrer Zirkulation nach dem FRBR-Modell abgelegt sind, ist hingegen Neuland. Das Panel diskutiert das Erkenntnisinteresse einer solchen Edition und arbeitet die Voraussetzungen für die Integration von Edirom und Datenbank heraus." "28.03.2019";"11:00";"12:30";"HZ5";;"Session";"Session Texte und Strukturen";"Friedrich Dimpel";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"11:00";"12:30";"HZ5";"Vortrag_181";"Vortrag";"Session Texte und Strukturen";"Friedrich Dimpel";"Vortrag Makroanalytische Untersuchung von Heftromanen";"Fotis Jannidis";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Leonard Konle";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Peter Leinen";"Deutsche Nationalbibliothek";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Heftromane, früher als ”˜Romane der Unterschicht”™ abgewertet, sind aufgrund eines weniger wertungsfreudigen Umgangs mit Populärliteratur in den letzten 10-15 Jahren wieder Gegenstand der Literaturforschung geworden. ”˜Heftromane”™ wurden immer definiert durch das eigene Publikationsformat, eigene Formen der Distribution über den Zeitschriftenmarkt und nicht über den Buchhandel, und auch die Soziographie der Heftromanleser weicht deutlich von der der sonstigen Literatur ab. Im Folgenden berichten wir über erste Ergebnisse einer Auswertung von 9.000 deutschsprachigen Heftromanen aus den Jahren 2009-2017. Möglich wurde die Forschung durch eine Kooperation zwischen der Würzburger Arbeitsgruppe zur literarischen Textanalyse und der Deutschen Nationalbibliothek, die die Daten vorhält." "28.03.2019";"11:00";"12:30";"HZ5";"Vortrag_103";"Vortrag";"Session Texte und Strukturen";"Friedrich Dimpel";"Vortrag Aristoteles multimodal – Mit ediarum in den Graphen";"Andreas Kuczera";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Martin Fechner";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"In diesem Beitrag wird am Beispiel der Forschungsdaten des Akademienvorhabens “Commentaria in Aristotelem Graeca et Byzantina” gezeigt, welchen Mehrwert die Analyse von Forschungsdaten in einer Graphdatenbank bieten kann und warum Schnittstellen Digitaler Editionen für Graphdatenbanken sinnvoll sind." "28.03.2019";"11:00";"12:30";"HZ5";"Vortrag_258";"Vortrag";"Session Texte und Strukturen";"Friedrich Dimpel";"Vortrag Multimodale Versuche der Alignierung historischer Texte";"Andreas Wagner";"Max-Planck-Institut für europäische Rechtsgeschichte";"Deutschland";"Manuela Bragagnolo";"Max-Planck-Institut für europäische Rechtsgeschichte";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Die maschinelle Kollationierung von Texten *in verschiedenen Sprachen* ist eine offene Forschungsfrage der Digital Humanities. Verschiedene Ähnlichkeitsmaße der DH-Methoden gehen von einer Kollationierung *innerhalb* einer Sprache aus, während industriell erprobte Methoden, etwa aus dem Bereich Machine Translation, nicht mit historischem Wandel in Rechtschreibung und Typographie umgehen können. Das Forschungsprojekt ""Das Beichthandbuch des Azpílcueta"" untersucht die Entwicklung eines Werks in knapp 60 portugiesischen, spanischen und lateinischen Druckeditionen des 16. Jahrhunderts. In diesen Editionen sorgte der Autor z.T. selbst für die Übersetzung und er modifizierte das Werk allmählich wesentlich. Um die Untersuchung dieser Entwicklung zu erleichtern, evaluieren wir verschiedene Ansätze, korrespondierende Passagen zwischen jeweils zwei Editionen zu identifizieren. Sie greifen in ganz verschiedenen Modi auf die Daten zu und lassen sich grob in statistische, linguistische sowie wissensbasierte Ansätze unterteilen. Der Vortrag wird das Verfahren und die Ergebnisse dieser Evaluation vorstellen, und dabei auch die Faktoren und Auswirkungen der nötigen manuellen Zuarbeit benennen." "28.03.2019";"14:00";"15:30";"HZ3";;"Session";"Session Digitale Theoriereflexion";"Jörg Wettlaufer";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"14:00";"15:30";"HZ3";"Vortrag_259";"Vortrag";"Session Digitale Theoriereflexion";"Jörg Wettlaufer";"Vortrag Vom Digitalisat zum Kontextualisat – einige Gedanken zu digitalen Objekten";"Enes Türkoglu";"Universität zu Köln";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Im Rahmen der laufenden Forschung sollte eine Form von Digitalisierung und Bereitstellung erarbeitet werden, die entsprechend den Anforderungen der Geisteswissenschaften die kulturelle Praxis zugänglich macht, welche in Objekten ruht und ihren Quellenwert mitbestimmt. Um die Relevanz solcher Anwendungen für die Forschung zu demonstrieren, werden türkische Schattentheaterfiguren in interaktiver Form virtualisiert. Von hier aus führen Überlegungen weiter zu prävalierenden Problemen der gängigen Digitalisierungsstrategien, die im Ergebnis häufig zu unengagierten Datenbanken führen, die blind gegenüber der Zentralität von Interpretation und kulturellem Kontext bleiben. Eine Diskussion zur Verfasstheit von materiellen und digitalen Objekten, deren Potential und ihrer Beziehung zueinander schließt sich an und stellt sich als wahrer Fundus für spannende theoretische Fragenstellungen heraus, aus deren Weiterverfolgung sich Impulse für eine inspirierte Interdisziplinarität ergeben können." "28.03.2019";"14:00";"15:30";"HZ3";"Vortrag_174";"Vortrag";"Session Digitale Theoriereflexion";"Jörg Wettlaufer";"Vortrag Standardisierte Medien. Ein Paradigmenwechsel in den Geisteswissenschaften";"Daniel Althof";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Die Hauptthese lautet: Die Standardisierung in den DH stellt einen Paradigmenwechsel in den Geisteswissenschaften dar, der vergleichbar ist mit der Formalisierung in den Naturwissenschaften. Der Vortrag möchte einen Paradigmenwechsel konstatieren, der darin besteht, dass das Zeichen und die Erforschung der Zeichen in den GW eine tiefgreifende Transformation dadurch erfahren, dass sie aus den analogen Medien in ein digitales Supermedium transferiert werden. Medialität als solche sowie die Natur des Zeichens selbst werden tiefgreifend verändert. Denn durch die dynamische Generierung aller Medien im Computer wird das Zeichen im Zuge umgreifender Standardisierung vom passiven, statischen Träger von Inhalt zum aktiven, dynamischen Erzeuger desselben. Das verändert das Verständnis geisteswissenschaftlicher Forschung nachhaltig. " "28.03.2019";"14:00";"15:30";"HZ3";"Vortrag_104";"Vortrag";"Session Digitale Theoriereflexion";"Jörg Wettlaufer";"Vortrag Prototypen als Proto-Theorie? – Plädoyer einer digitalen Theoriebildung";"Rabea Kleymann";"Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Der Vortrag möchte darlegen, inwiefern Softwareprototypen als ""Proto-Theorie"" der Digital Humanities begriffen werden können. Ausgehend von der aktuellen Theoriedebatte in den Digital Humanities erörtert der Vortrag die theoriebildenden Effekte von Softwareprototypen und diskutiert neue digitale Gestaltungsformen von Theoriebildung." "28.03.2019";"14:00";"15:30";"HZ4";;"Session";"Session (Inter-) Aktion im virtuellen Raum";"Annika Rockenberger";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"14:00";"15:30";"HZ4";"Vortrag_199";"Vortrag";"Session (Inter-) Aktion im virtuellen Raum";"Annika Rockenberger";"Vortrag Herausforderungen des Digital Storytelling am Beispiel des VRlabs des Deutschen Museums";"Georg Hohmann";"Deutsches Museum";"Deutschland";"Andrea Geipel";"Deutsches Museum";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Digitale Entwicklungen in den Bereichen Virtual Reality (VR) und Augmented Reality (AR) bieten auch für Museen neue Möglichkeiten im Umgang mit und in der Vermittlung des kulturellen Erbes. Gleichzeitig stellen sich Herausforderungen hinsichtlich infrastruktureller Ressourcen und nachhaltiger Vermittlungskonzepte. Seit August 2018 können Besucher/innen des Deutschen Museums insgesamt vier 3D-Szenarien im VRlab mit Hilfe von VR-Brillen und Controllern interaktiv erkunden. Das VRlab versteht sich dabei als Experimentierfeld, um im stetigen Austausch zwischen Besucher/innen, Kuratoren/-innen, Software-Entwickler/innen sowie dem didaktischen Fachpersonal, Inhalte und Darstellungsformen weiterzuentwickeln. Mit dem Beitrag möchten wir das Projektkonzept, die verwendeten wissenschaftlichen Methoden zur Evaluation sowie erste Ergebnisse aus dem laufenden Betrieb vorstellen und diskutieren." "28.03.2019";"14:00";"15:30";"HZ4";"Vortrag_189";"Vortrag";"Session (Inter-) Aktion im virtuellen Raum";"Annika Rockenberger";"Vortrag Besucherexperimente im Science Center: Welche Einsichten in die Herstellung von Wissen in Interaktion werden erst durch die Zusammenschau von Audio-, Video- und Eye-Tracking-Daten möglich?";"Wolfgang Kesselheim";"Universität Zürich";"Schweiz";"Christoph Hottiger";"Universität Zürich";"Schweiz";;;;;;;;;;;;;;;;;;;;;;;;;"Die interaktive Herstellung von Wissen zu Naturphänomenen im Science Center ist ein grundlegend multimodales Phänomen: Nicht nur nutzen die Besucherinnen und Besucher zur gemeinsamen Konstruktion von Wissen die unterschiedlichsten körperlichen Ausdrucksressourcen, auch greifen sie in ihrer Interaktion auf multimodale Ressourcen im Ausstellungsraum zurück (Objekte, Grafiken, Texte). In unserem Vortrag werden wir anhand von Beispielanalysen aus dem Projekt „Interactive Discoveries“ (p3.snf.ch/project-162848) zeigen, dass ein vollumfängliches Verständnis dieser Praktiken der Wissenskonstruktion nur möglich ist, wenn man Daten aus unterschiedlichen Quellen (Audio, Video, Eye-Tracking) miteinander verknüpft. Dazu analysieren wir erst Daten eines einzelnen mode (nur Audio bzw. nur Eye-Tracking) und zeigen, welche verkürzenden und verzerrenden analytischen Aussagen korrigiert werden können, sobald man weitere modes zur Analyse hinzuzieht. Mit unserem Vortrag leisten wir einen Beitrag zur Etablierung der Multimodalität in der Fachkommunikationsforschung und zur konversationsanalytischen Debatte um die Analyse „multimodaler Gestalten“. " "28.03.2019";"14:00";"15:30";"HZ4";"Vortrag_282";"Vortrag";"Session (Inter-) Aktion im virtuellen Raum";"Annika Rockenberger";"Vortrag Interaktion im öffentlichen Raum: Von der qualitativen Rekonstruktion ihrer multimodalen Gestalt zur automatischen Detektion mit Hilfe von 3-D-Sensoren";"Sergey Mukhametov";"Westfälische Wilhelms-Universität Münster";"Deutschland";"Wolfgang Kesselheim";"Universität Zürich";"Schweiz";"Christina Brandenbeger";"Universität Zürich";"Schweiz";;;;;;;;;;;;;;;;;;;;;;"Die Körper von Interaktionsbeteiligten sind auf spezifische Art und Weise aufeinander ausgerichtet. Sie bilden einen ""Interaktionsraum"". In Soziologie, Psychologie und Linguistik sind die Herstellung, Aufrechterhaltung und die Auflösung von Interaktionsräumen untersucht und wichtige Merkmale herausgearbeitet worden - in den letzten Jahren vor allem basierend auf Videoaufnahmen authentischer Interaktionsereignisse. Moderne technologische Entwicklungen machen es möglich, präzise Informationen zu Bewegungen, Verhalten, und sozialen Interaktionen einer größeren Anzahl von Probanden automatisiert und berührungsfrei zu erheben und im räumlichen Kontext zu analysieren. Ziel unseres Vortrags ist es nun, zu zeigen, wie sich die bisherigen Forschungsergebnisse nutzen lassen, um Interaktionsräume automatisch detektieren zu können. Mit der quantitativen Auswertung von Interaktionsräumen wird es möglich, im Vergleich zu den bisherigen Studien die Datenbasis beträchtlich zu erweitern und darauf basierend Generalisierungen zu den typischen Mustern und Merkmalen von Interaktionsräumen herauszuarbeiten." "28.03.2019";"14:00";"15:30";"HZ5";;"Session";"Session Text-Analyse: Automatisierung und Standardisierung";"Steffen Pielström";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"14:00";"15:30";"HZ5";"Vortrag_151";"Vortrag";"Session Text-Analyse: Automatisierung und Standardisierung";"Steffen Pielström";"Vortrag Ein neues Format für die Digital Humanities: Shared Tasks. Zur Annotation narrativer Ebenen";"Marcus Willand";"Ruprecht-Karls-Universität Heidelberg / Universität Stuttgart";"Deutschland";"Evelyn Gius";"Universität Hamburg";"Deutschland";"Nils Reiter";"Universität Stuttgart";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Der Beitrag stellt ein neues, aus der Sprachverarbeitung importiertes und adaptiertes Arbeitsformat vor: Shared Tasks. Er zeigt anhand eines gerade laufenden, auf die Annotation literarischer Ebenen angepassten STs, dass dieses Format große Vorteile und Potentiale verspricht für die Weiterentwicklung von Konzepten, Operationalisierung, Analyse und Interpretation in den Digital Humanities.Der Beitrag fokussiert die von den Teilnehmer/innen am ST eingereichten und auf einem gemeinsamen Workshop evaluierten Richtlinien zur Annotation narrativer Level. Damit leistet er Grundlagenarbeit für die Evaluation vager, geisteswissenschaftlicher Konzepte und ihrer Operationalisierung. Er adressiert dergestalt eine der zentralen Herausforderungen der Digital Humanities. " "28.03.2019";"14:00";"15:30";"HZ5";"Vortrag_237";"Vortrag";"Session Text-Analyse: Automatisierung und Standardisierung";"Steffen Pielström";"Vortrag Kann Nonstandard standardisiert werden? Ein Annotations-Standardisierungsversuch nicht nur von PoS-Tags am Beispiel des Spezialforschungsbereichs „Deutsch in Österreich“";"Melanie Seltmann";"Universität Wien";"Österreich";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Unter einer Annotation von Sprachdaten wird eine Markierung, Kategorisierung und Interpretation derselben verstanden. Sie dienen – auch in anderen Wissenschaftsdisziplinen – in der Regel der wissenschaftlichen Auseinandersetzung und dem Forschungsprozess mit einem Datum und halten ebenso dessen Ergebnis fest (vgl. Breuer/Seltmann 2018: 145). Im Vortrag soll anhand des (Aufbaus des) Annotationssystems des Spezialforschungsbereichs „Deutsch in Österreich. Variation – Kontakt – Perzeption“ (FWF F60, SFB DiÖ) die Annotation von Nonstandardvarietäten hinterfragt werden. Die Anforderungen an ein standardisiertes Annotationssystem werden erfragt. Dabei wird diskutiert, ob für eine Standardisierung das Vokabular oder eher die Struktur der Annotation standardisiert werden sollte. Im Vergleich zum STTS (Schiller et al. 1999) und (EDiSyn)-Tagset (Barbiers/Wyngaerd o.J.) wird anhand von PoS-Tags der Standardisierungsversuch des SFB DiÖ vorgestellt. Schließlich werden Vor- und Nachteile einer Standardisierung diskutiert." "28.03.2019";"14:00";"15:30";"HZ5";"Vortrag_139";"Vortrag";"Session Text-Analyse: Automatisierung und Standardisierung";"Steffen Pielström";"Vortrag Automatic recognition of direct speech without quotation marks. A rule-based approach";"Ngoc Duyen Tanja Tu";"Institut für Deutsche Sprache";"Deutschland";"Markus Krug";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Annelen Brunner";"Institut für Deutsche Sprache";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"This paper describes a rule-based approach to detect direct speech without the help of any quotation markers. As datasets fictional and non-fictional texts were used. Our evaluation shows that the results appear stable throughout different datasets in the fictional domain and are comparable to the results achieved in related work. " "28.03.2019";"14:00";"15:30";"HZ6";;"Session";"Session Bestimmen und Identifizieren";"Walter Scholger";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "28.03.2019";"14:00";"15:30";"HZ6";"Vortrag_273";"Vortrag";"Session Bestimmen und Identifizieren";"Walter Scholger";"Vortrag Nomisma.org: Numismatik und das Semantic Web";"David Wigg-Wolf";"Deutsches Archäologisches Institut";"Deutschland";"Karsten Tolle";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Timo Kissinger";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Nomisma.org definiert und stellt stabile digitale Repräsentationen numismatischer Konzepte nach den Prinzipien von Linked Open Data in Form von http-URIs sowie einer numismatischen Ontologie zur Verfügung, die es ermöglichen, Datenbestände, die bisher nur in disparaten relationalen Datenbanken vorhanden waren, in RDF zu modellieren und gemeinsam recherchierbar zu machen. Fast 200.000 Münzen von 39 Institutionen werden heute in auf Nomisma.org basierenden Online-Ressourcen veröffentlicht, die in die Linked Open Data-Welt der Antike fest integriert sind.In diesem Beitrag werden die Entwicklung und technische Infrastruktur von Nomisma.org vorgestellt, sowie einzelne Projekte, welche das Vokabular und die Ontologie des Projektes einsetzen, um digitale Datenbestände in virtuellen Sammlungen zusammenzuführen und online zu stellen. In einem zweiten Teil werden Pläne erörtert, Münzen im archäologischen Kontext zu erfassen, sowie neben Datenbanken auch textbasierte Materialsammlungen auf die Konzepte von Nomisma.org zu mappen." "28.03.2019";"14:00";"15:30";"HZ6";"Vortrag_182";"Vortrag";"Session Bestimmen und Identifizieren";"Walter Scholger";"Vortrag Ein unscharfer Suchalgorithmus für Transkriptionen von arabischen Ortsnamen";"Magdalena Scherl";"Hochschule Mainz - University of Applied Sciences";"Deutschland";"Martin Unold";"Hochschule Mainz - University of Applied Sciences";"Deutschland";"Timo Homburg";"Hochschule Mainz - University of Applied Sciences";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Digitale Ortsverzeichnisse (Gazetteers) beinhalten Informationen über Orte sowie deren geographische Lage. Eine der grundlegendsten Aufgaben im Umgang mit solchen Ortsverzeichnissen ist die Suche nach Ortsnamen. Diese Suche kann sehr schwierig sein für Ortsnamen, die in verschiedenen Transliterations- oder Transkriptionsvarianten vorliegen, wie es oft bei arabischen Ortsnamen der Fall ist. In diesen Fällen reicht eine reine Volltextsuche nicht aus. Hier können unscharfe String-Matching-Algorithmen eine bessere Trefferquote für Suchen erreichen.In dieser Publikation präsentieren wir einen auf einer gewichteten Levenshteindistanz aufbauenden Algorithmus für arabische Transliterationen, der fehlertolerant und gleichzeitig präzise genug ist, um das Auffinden von Transliterationsvarianten zu ermöglichen. Wir testeten diesen Algorithmus auf einem arabischen Korpus und die Übertragbarkeit des Algorithmus auf sumerischen Keilschrifttexten, die ähnliche Transliterationsambiguitäten aufweisen. Unser Algorithmus kann abhängig vom gegebenen Wörterbuch Toponyme mit einer Präzision von 90-95% und somit einer Verbesserung von 9-27 Prozentpunkten zur normalen Levenshteindistanz erreichen." "28.03.2019";"14:00";"15:30";"HZ6";"Vortrag_222";"Vortrag";"Session Bestimmen und Identifizieren";"Walter Scholger";"Vortrag “The Bard meets the Doctor” – Computergestützte Identifikation intertextueller Shakespearebezüge in der Science Fiction-Serie Dr. Who";"Manuel Burghardt";"Universität Leipzig";"Deutschland";"Selina Meyer";"Universität Regensburg";"Deutschland";"Stephanie Schmidtbauer";"Universität Regensburg";"Deutschland";"Johannes Molz";"Ludwig-Maximilians-Universität München";"Deutschland";;;;;;;;;;;;;;;;;;;"In diesem Beitrag präsentieren wir einen computergestützten Ansatz zur Identifikation von Shakespearezitaten in den Transkriptionen der britischen Fernsehserie ""Dr. Who"". Wir setzen einerseits eine automatisierte Suche nach Schlüsselbegriffen aus Shakespeares Werk um, um so bspw. Referenzen auf Figuren oder Werkstitel zu identifizieren. Andererseits berechnen wir local alignments mit dem Smith-Waterman-Algorithmus, um so längere Zitate aus Shakespeares Werk zu erkennen. Wir diskutieren die Ergebnisse beider Ansätze und schließen mit einem Fazit zur Übertragbarkeit und Optimierung der Methodik." "29.03.2019";"09:00";"10:30";"HZ3";;"Session";"Session Digital Humanities selbst";"Ulrike Wuttke";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "29.03.2019";"09:00";"10:30";"HZ3";"Vortrag_246";"Vortrag";"Session Digital Humanities selbst";"Ulrike Wuttke";"Vortrag Wandel in der Wissenschaftskommunikation? Ergebnisse der Umfrage bei den Bloggenden von de.hypotheses.org";"Mareike König";"Deutsches Historisches Institut Paris";"Frankreich";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Wissenschaftliche Blogs sind Orte, in denen aus laufenden Forschungsprojekten berichtet und mit der Fachcommunity diskutiert werden kann. Seit der Eröffnung der deutschsprachigen Blogplattform de.hypotheses 2012 haben geisteswissenschaftliche Blogs an Anzahl, Sichtbarkeit und Bedeutung für die Wissenschaftskommunikation stark zugenommen. Doch wie hat sich darüber das Publikations- und Kommunikationsverhalten tatsächlich verändert? Der Vortrag stellt die Ergebnisse einer Umfrage vor, die im Herbst 2018 bei den Bloggenden der Plattform durchgeführt wird. Die Umfrage zielt darauf, Motivationen und Inhalte sowie konkrete Schreib- und Kommunikationspraktiken der geisteswissenschaftlichen Bloggenden abzufragen und diese mit akademischen Status, Geschlecht und Alter rückzukoppeln. Es ist die erste empirische Studie dieser Art im deutschsprachigen Raum." "29.03.2019";"09:00";"10:30";"HZ3";"Vortrag_130";"Vortrag";"Session Digital Humanities selbst";"Ulrike Wuttke";"Vortrag DH is the Study of dead Dudes";"Mark Hall";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Für Forschung im Bereich Digital Humanities ist es in vielen Fällen notwendig einen Datensatz zu wählen der bearbeitet werden soll. In der Wahl dieses Datensatzes fließen sowohl bewusste, wie auch unbewusste Kriterien ein, wodurch sich oft eine (unbewusste) Fokussierung auf den Kanon der jeweiligen Disziplin und der Gesellschaft im allgemeinen ergibt. Dies wurde auch bereits thematisiert, aber primär auf Basis von Anekdoten. In diesem Beitrag präsentieren wir eine quantitative Analyse des Genders, Sprache und Herkunft von Personen die in Abstracts der DHd Konferenzen 2016 - 2018 erwähnt wurden. Die Ergebnisse zeigen, dass bezüglich Sprache und Herkunft keine übermäßige Fokussierung auf den deutsch/deutschsprachigen Bereich zu finden ist, aber das im Bereich Gender ein extremes Ungleichgewicht besteht, und dass im deutschsprachigen DH Raum Frauen effektiv keine Rolle als Studiensubjekte spielen." "29.03.2019";"09:00";"10:30";"HZ3";"Vortrag_216";"Vortrag";"Session Digital Humanities selbst";"Ulrike Wuttke";"Vortrag Methoden auf der Testbank: Ein interdisziplinäres, multimodales Lehrkonzept zur Beantwortung einer fachhistorischen Fragestellung";"Katrin Moeller";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";"Andreas Müller";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";"Anne Purschwitz";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Vorgestellt wird ein Projekt aus der digitalen Lehre. Über eine Fragestellung aus der Geschichtswissenschaft soll mithilfe von drei verschiedenen Methoden (Hermeneutik, statistische Auswertung, Netzwerkanalyse) die Erschließung eines Textkorporas mithilfe von drei verschiedene Datentypen demonstriert werden. Ein didaktisches Konzept führt in die Möglichkeiten der Einbindung digitaler Methoden in ein inhaltliches Projekt der Geschichtswissenschaft ein und ermöglicht in verschiedenen Übungen eine individuelle Aktivierung der Studierenden zur Datenerzeugung. Im Zentrum steht nicht nur die Anknüpfung an fachliche Fragestellungen, sondern vor allem die Nachvollziehbarkeit der Datenmodellierung. Studierende werden so nicht nur in die Lage versetzt, Datentypen und ihre spezifischen Anforderungen zu verstehen, sondern erwerben Kompetenzen der Quellen- und Methodenkritik. Alle Rohdatensätze und ihre inhaltliche Auszeichnung (xml/TEI), die statistischen und graphbasierten Daten werden zur Nachnutzung auf öffentlichen Repositorien zur Verfügung gestellt. " "29.03.2019";"09:00";"10:30";"HZ4";;"Session";"Session Praxis Digitaler Edition";"Anne Baillot";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "29.03.2019";"09:00";"10:30";"HZ4";"Vortrag_289";"Vortrag";"Session Praxis Digitaler Edition";"Anne Baillot";"Vortrag Das Notizbuch als Ideenspeicher und Forschungswerkzeug: Erkenntnisse aus einer digitalen Repräsentation";"Martina Scholger";"Universität Graz";"Österreich";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Das Paper widmet sich den Resultaten der kurz vor ihrem Abschluß stehenden digitalen Edition der Notizbücher des österreichischen zeitgenössischen Künstlers Hartmut Skerbisch. Es präsentiert die auf die Notizbücher angewandten Methoden, zeigt die daraus gewonnenen Erkenntnisse und Ergebnisse und versucht eine generelle Ableitung der verwendeten Methoden sowie deren Anwendbarkeit auf vergleichbare Quellen zu demonstrieren. Schließlich sollen die aus der digitale Edition gewonnenen Erfahrungen in Bezug auf die digitale Repräsentation thematisiert werden: Welche Methoden erwiesen sich als effektiv, oder aber als wenig erkenntnisbringend in Relation zum geleisteten Ressourcenaufwand. Insbesondere werden Modelle und Methoden thematisiert, die dazu geeignet sind die Entwicklung von (nicht nur) künstlerischen Ideen und Konzepten zu erschließen und nachzuzeichnen." "29.03.2019";"09:00";"10:30";"HZ4";"Vortrag_260";"Vortrag";"Session Praxis Digitaler Edition";"Anne Baillot";"Vortrag Intervalle, Konflikte, Zyklen: Modellierung von Makrogenese in der Faustedition";"Thorsten Vitt";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Gerrit Brüning";"Freies Deutsches Hochstift / Frankfurter Goethe-Museum";"Deutschland";"Dietmar Pravida";"Freies Deutsches Hochstift / Frankfurter Goethe-Museum";"Deutschland";"Moritz Wissenbach";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;;;;"Zur Rekonstruktion und Visualisierung der Genese von Goethes „Faust“ wurden in der Faustedition die in der Forschung seit dem 19. Jahrhundert vorkommenden Aussagen gesammelt und maschinenlesbar in XML verzeichnet. Aus diesen Einzelaussagen wird ein Graph gebildet. Um diesen Graphen zur chronologischen Sortierung der Zeilensynopse und des genetischen Balkendiagramms nutzen zu können, muss er zu einem gerichteten azyklischen Graphen reduziert werden. Dazu müssen bestimmte Aussagen, aus denen sich Widersprüche und damit Zyklen im Graphen ergeben, identifiziert und ausgeschieden werden. Die Graphen und die daraus generierten Visualisierungen unterstützen die weitere philologische Arbeit an der Korrektur, Verfeinerung und Ergänzung genetischer Informationen. Der Beitrag umreißt die sowohl bei der Verzeichnung der Aussagen als auch bei der Bildung des Graphen auftretenden Probleme und skizziert die bislang unternommene Schritte zu deren Lösung." "29.03.2019";"09:00";"10:30";"HZ4";"Vortrag_231";"Vortrag";"Session Praxis Digitaler Edition";"Anne Baillot";"Vortrag Vom Stellenkommentar zum Netzwerk und zurück: grosse Quellenkorpora und tief erschlossene Strukturdaten auf hallerNet";"Martin Stuber";"Universität Bern";"Schweiz";"Peter Dängeli";"Universität Bern / Cologne Center for eHumanities";"Schweiz / Deutschland";"Christian Forney";"Universität Bern";"Schweiz";;;;;;;;;;;;;;;;;;;;;;"Die entstehende Editions- und Forschungsplattform hallerNet nutzt die Verbindung von Textedition und tief erschlossener Datenbank. Indem die Textannotation über die reine Identifikation erwähnter Personen, Publikationen usw. hinausgeht, und beispielsweise biografische Etappen wie Studium, Promotion, Lehrtätigkeit sowie Wirkungsorte einbezogen werden, lassen sich Kommunikationsnetzwerke plastischer darstellen und analysieren. Die Grundlage für dieses Vorhaben ist eine umfangreiche Datenbank, die über drei Jahrzehnte angereichert wurde und die nun in TEI überführt und veröffentlicht wird. Der Beitrag versucht das Analysepotenzial und mögliche explorative Visualisierungsformen anhand einer prototypischen Korrespondenzedition zu umreissen." "29.03.2019";"09:00";"10:30";"HZ5";"Panel_156";"Panel";;;"Panel Deep Learning als Herausforderung für die digitale Literaturwissenschaft";"Fotis Jannidis";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Christof Schöch";"Universität Trier / Trier Center for Digital Humanities";"Deutschland";"Jonas Kuhn";"Universität Stuttgart / Centrum für Reflektierte Textanalyse (CRETA)";"Deutschland";"Timo Baumann";"Carnegie Mellon University";"USA";"Hussein Hussein";"Freie Universität Berlin";"Deutschland";"Thomas Haider";"Max-Planck-Institut für empirische Ästhetik";"Deutschland";"Burkhard Meyer-Sickendiek";"Freie Universität Berlin";"Deutschland";;;;;;;;;; "29.03.2019";"11:00";"12:30";"HZ3";"Panel_227";"Panel";;;"Panel Digital Humanities „from Scratch“";"Torsten Roeder";"Studienzentrum der Leopoldina / Nationale Akademie der Wissenschaften";"Deutschland";"Sibylle Söring";"Freie Universität Berlin";"Deutschland";"Swantje Dogunke";"Forschungsverbund Marbach Weimar Wolfenbüttel";"Deutschland";"Frederik Elwert";"Centrum für Religionswissenschaftliche Studien Ruhr-Universität Bochum";"Deutschland";"Thorsten Wübbena";"Kunstgeschichtliches Institut, Goethe Universität Frankfurt am Main / Deutsches Forum für Kunstgeschichte Paris";"Deutschland / Frankreich";"Harald Lordick";"Steinheim-Institut";"Deutschland";"Fabian Cremer";"Max Weber Stiftung";"Deutschland";"Anne Klammt";"Mainzer Zentrum für Digitalität in den Geistes- und Kulturwissenschaften";"Deutschland";;;;;;;"Immer häufiger schaffen universitäre, akademische und andere wissenschaftliche Institutionen neue Stellen, um Aktivitäten im Bereich der Digital Humanities zu koordinieren und Infrastrukturen aufzubauen. Beginnt man heute damit ganz von vorn, sei es im Rahmen einer Querschnittsstelle, einer neuen Abteilung oder auch ohne offizielles Mandat, steht man vor anderen Voraussetzungen als vor einem Jahrzehnt. Während einige wenige Standorte inzwischen auf eine langjährig gewachsene DH-Infrastruktur zurückblicken können, stellt die Etablierung von DH-Strukturen “from scratch” im laufenden Betrieb hohe institutionelle, organisatorische, personelle und technische Anforderungen. Übergreifender Austausch, Vernetzung und Bündelung von Initiativen und Aktivitäten jenseits von Institutionen und Verbünden stehen jedoch bislang aus. In diesem moderierten Panel stellen die Beitragenden, die durch ihre Institutionen mit solchen Aufgaben betraut wurden oder diese initiieren, ihre bisherigen Herausforderungen, Erfahrungen und Lösungsansätze zur Diskussion, um aktuelle Desiderate zu identifizieren und sowohl Handlungsoptionen als auch mögliche Strategien aufzuzeigen – und damit einen Impuls für weiterführende Initiativen zu geben." "29.03.2019";"11:00";"12:30";"HZ4";;"Session";"Session Technologien Digitaler Editionen";"Torsten Schaßan";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "29.03.2019";"11:00";"12:30";"HZ4";"Vortrag_184";"Vortrag";"Session Technologien Digitaler Editionen";"Torsten Schaßan";"Vortrag Technologienutzung im Kontext Digitaler Editionen – eine Landschaftsvermessung";"Claes Neuefeind";"Universität zu Köln";"Deutschland";"Philip Schildkamp";"Universität zu Köln";"Deutschland";"Brigitte Mathiak";"Universität zu Köln";"Deutschland";"Lukas Harzenetter";"Universität zu Köln";"Deutschland";"Johanna Barzen";"Universität zu Köln";"Deutschland";"Uwe Breitenbücher";"Universität zu Köln";"Deutschland";"Frank Leymann";"Universität zu Köln";"Deutschland";;;;;;;;;;"Gegenstand des Beitrags ist eine nähere Betrachtung der Technologienutzung im Kontext Digitaler Editionen. Im Vorfeld des Workshops „Nachhaltigkeit Digitaler Editionen“, den das Data Center for the Humanities Köln (DCH) in Kooperation mit der Landesinitiative NFDI der Digitalen Hochschule NRW und der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste am 17.9.2018 in Düsseldorf veranstaltete, führten wir unter den Teilnehmern eine Umfrage durch, um Informationen über die Technologielandschaft speziell in diesem Bereich der DH zu gewinnen. Hintergrund und Kontext ist das DFG-geförderte Kooperationsprojekt „SustainLife“ (DCH Köln und IAAS Stuttgart), das auf die Adaption von Verfahren und Technologien aus dem Cloud-Deployment zielt, um Management und Provisionierung von DH-Anwendungen wie z.B. Digitalen Editionen zu optimieren und deren Sicherung und nachhaltigen Betrieb zu realisieren. In unserem Beitrag möchten wir die Ergebnisse der Umfrage vorstellen und mit der Fachcommunity diskutieren, welche Bedarfe und Konsequenzen sich daraus für Fragen der Nachhaltigkeit Digitaler Editionen ergeben." "29.03.2019";"11:00";"12:30";"HZ4";"Vortrag_271";"Vortrag";"Session Technologien Digitaler Editionen";"Torsten Schaßan";"Vortrag „Eine digitale Edition kann man nicht sehen“ - Gedanken zu Struktur und Persistenz digitaler Editionen";"Thomas Stäcker";"Universitäts- und Landesbibliothek Darmstadt";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Die Konzentration auf die Unzulänglichkeiten von XML zur Textmodellierung haben den Blick verstellt für eine breitere Sicht auf das ""Konzept"" der digitalen Edition als Kompositum von Codepoints (Unicode), Strukturinformation bzw. Markup, Anzeigeinformation, Regeln für das Markup und Metadaten. Der Beitrag will versuchen den Fokus bei der Frage der Textmodellierung zu verschieben zu einer Betrachtung der Funktion der digitalen Edition, die im Zusammenwirken ihrer Komponenten besteht und die als solche vollständig beschrieben werden können. Daraus ergeben sich praktische und theoretische Konsequenzen für die Betrachtung und Nutzung digitaler Editionen, wie etwa zur Art ihrer Archivierung, Zitierbarkeit, Hypertextualität oder auch Textästhetik. Die Hoffnung besteht, dass mit einem Wechsel weg von der sichtbaren Oberfläche der Edition hin zur Beschreibung der Möglichkeiten ihrer ""Instantiierung"" ein genauerer Begriff davon gewonnen werden kann, welche Merkmale für eine digitale Edition konstitutiv sind." "29.03.2019";"11:00";"12:30";"HZ5";;"Session";"Session Text - Kommunikation - Diskurs";"Nanette Rißler-Pipka";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; "29.03.2019";"11:00";"12:30";"HZ5";"Vortrag_233";"Vortrag";"Session Text - Kommunikation - Diskurs";"Nanette Rißler-Pipka";"Vortrag Automatisierungspotenziale in der qualitativen Diskursanalyse. Das Prinzip des „Filterns“";"Gertraud Koch";"Universität Hamburg";"Deutschland";"Lina Franken";"Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Der Beitrag stellt Automatisierungspotentiale in der Diskursanalyse vor, der Schwerpunkt liegt dabei auf den Prinzipien des Filterns. Es wird davon ausgegangen, dass wissenschaftliche Fragestellungen der Diskursanalyse durch automatisierte Ansätze zwar nie vollständig bearbeitet werden können, diese aber großes Potenzial haben, um die qualitativen Analysen mittelbar zu unterstützen. Das Ziel sind damit halbautomatisierte Verfahren. Im Rahmen einer Studie zu Akzeptanzproblematiken von Telemedizin wurden unterschiedliche halbautomatisierte Verfahren für die Unterstützung der qualitativen Diskursanalyse mit ihren verschiedenen Arbeitsschritten erprobt. Der Beitrag stellt zunächst die Methode der wissenssoziologischen bzw. -anthropologischen Diskursanalyse mit ihrer spezifischen Datengrundlage vor, um davon ausgehend die spezifischen Potentiale und Probleme für die (halb)automatisierte Korpuserstellung und -auswertung bei diskursanalytischem Datenmaterial in Form von Filterprozessen zu erläutern." "29.03.2019";"11:00";"12:30";"HZ5";"Vortrag_291";"Vortrag";"Session Text - Kommunikation - Diskurs";"Nanette Rißler-Pipka";"Vortrag Eine Infrastruktur zur Erforschung multimodaler Kommunikation";"Peter Uhrig";"Universität Osnabrück";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Dieser Vortrag zeigt, wie mit Hilfe des Distributed Little Red Hen Lab eine umfassende Forschungsinfrastruktur geschaffen wurde (und immer noch wird), mit der sich viele Aspekte multimodaler Kommunikation auf Basis der Fernsehaufnahmen des NewsScape-Projekts untersuchen lassen (aktuell über 400.000 Stunden)." "29.03.2019";"11:00";"12:30";"HZ5";"Vortrag_112";"Vortrag";"Session Text - Kommunikation - Diskurs";"Nanette Rißler-Pipka";"Vortrag Potentielle Privatsphäreverletzungen aufdecken und automatisiert sichtbar machen";"Frederik Simon Bäumer";"Universität Paderborn";"Deutschland";"Bianca Buff";"Universität Paderborn";"Deutschland";"Michaela Geierhos";"Universität Paderborn";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Das moderne Web basiert auf Interaktion, Diskussion und Austausch von Informationen. Da Daten immer effektiver mit bestehenden Ressourcen verknüpft werden können, können selbst implizit offenbarte Einzelinformationen schädliche Folgen für die Nutzer haben. Obwohl Serviceprovider im Web die Pflicht und auch das Eigeninteresse haben, die Sicherheit und Privatsphäre von Benutzerdaten zu gewährleisten, gibt es Fälle, in denen öffentlich verfügbare Informationen geg­en deren ursprünglichen Verfasser verwendet werden. Es ist demnach im Interesse der Kommunizierenden, nur die Informationen in Textbeiträgen zu platzieren, die den selbstbestimmten Grad an Anonymität wahren. In diesem Beitrag stellen wir unsere bisherigen Arbeiten an Text Broom vor, einem Tool, welches potentielle Privatsphäreverletzungen in Form expliziter als auch inhärenter Angaben in online verfügbaren Fließtexten erkennen und für Benutzer sichtbar machen kann." "29.03.2019";"14:30";"15:30";"HZ1";;"Keynote";;;"Abschluss der DHd 2019 mit Keynote Understanding Social Structure and Behavior through Responsible Mixed-Methods Research: Bias Detection, Theory Validation, and Data Governance";"Jana Diesner";"School of Information Sciences at the University of Illinois at Urbana-Champaign";"USA";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Working with reliable data, metrics, and methods, as well as valid theories, is essential for advancing the computational humanities and social sciences. In this talk, I present our research on the following question: 1) How do limitations related to the provenance and quality of digital social data impact research results? I present on the impact of commonly used techniques for name disambiguation on the properties and dynamics of social networks, highlight measurement-induced biases in metrics and theories, and address means for mitigating these limitations. 2) How can we combine methods from natural language processing and network analysis to jointly consider the content and structure of social relations? I provide an example where we applied domain-adjusted text mining to enhance social networks to validate a classic social science theory in a contemporary setting. 3) How can we assess the impact of information and science on people and society beyond using bibliometric methods? I present our work on predicting the impact of media on individual behavior, cognition, and emotions, and measuring the long-term impact of scientific research on society. 4) When working with human-centered and online data, how can we comply with data governance regulations while still do innovative work? I discuss challenges and opportunities for using digital social data in responsible and practical ways. Overall, the work presented in this talk contributes to making sense of qualitative, distributed, and multi-modal data in a scalable way; and advancing the transparency, responsibility, and ethics of computing and technology as applied to trying to better understand society." "28.03.2019";"16:00";"19:00";"HZ1";;"Postersession";"Postersession";"N.N.";;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;"Die Postersession wird durch einen Slam mit Kurzvorträgen eingeleitetbei dem die Präsentierenden in 1 Minute kreativ für ihr Poster werben. Am Ende des Slams werden durch Applausometer die 3 schönsten Präsentationen gekürt. " "28.03.2019";"16:00";"19:00";"HZ1";"Poster_106";"Poster";"Postersession";"N.N.";"UPB-Annotate: Ein maßgeschneidertes Toolkit für historische Texte";"Nina Seemann";"Universität Paderborn";"Deutschland";"Marie-Luis Merten";"Universität Paderborn";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Das interdisziplinäre Projekt InterGramm geht dem literaten Ausbau des Mittelniederdeutschen bis hin zum Schriftsprachenwechsel zum Frühneuhochdeutschen nach. Im Zuge von Sprachausbauprozessen wandeln sich (häufig) bereits existierende Konstruktionen und neue literate Konstruktionen entstehen (Traugott / Trousdale 2013). Unser Ziel ist es, diese Wandelphänomene durch die Analyse historischer Rechtstexte und Arzneibücher zu erfassen. Insbesondere interessiert uns die Entwicklung komplexer Satztypen (subordinierende Konstruktionen), attributiver Techniken, die in komplexen Nominalphrasen resultieren, und textstrukturierender Elemente. Voraussetzung zur Erfassung dieser Elemente ist es, unser Korpus mit Part-of-Speech-Tags sowie mit Konstruktionstags zu versehen. Im Hinblick auf unsere graphematisch stark variierenden Texte und die herausfordernde Grammatikanalyse benötigen wir ein maßgeschneidertes Toolkit, das das Layout der historischen Texte 1:1 abbildet, das Editieren von Primärdaten erlaubt sowie morphologische und konstruktionale Annotationen unterstützt." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_115";"Poster";"Postersession";"N.N.";"Gattungserkennung über 500 Jahre";"José Calvo Tello";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Wie gut lassen sich Gattungen und Untergattungen durch Maschinelles Lernen über eine längere Periode erkennen? Obwohl eine Reihe von Artikeln die Frage hauptsächlich für Englisch (Kessler, Numberg, und Schütze 1997" "28.03.2019";"16:00";"19:00";"HZ1";"Poster_116";"Poster";"Postersession";"N.N.";"Die PARTHENOS Training Suite";"Ulrike Wuttke";"Fachhochschule Potsdam";"Deutschland";"Heike Neuroth";"Fachhochschule Potsdam";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Das Poster stellt die Grundprinzipien und wichtigsten Ergebnisse der Entwicklung der PARTHENOS Training Suite vor. Hierbei handelt es sich um eine eLearning-Plattform, auf der im EU-Projekt PARTHENOS (Pooling Activities, Resources and Tools for Heritage E-Research Networking, Optimization and Synergies) entwickelte multimediale und multimodale Trainings- und Lehrmaterialien bereitgestellt werden. Die bereitgestellten Materialien adressieren insbesondere Meta-Themen im Bereich digitale Infrastrukturen, um somit einen Beitrag für ein besseres grundsätzliches Verständnis für infrastrukturelle Themen bei Wissenschaftler*innen und Praktiker*innen im geistes- und kulturwissenschaftlichen Bereich und ihre erfolgreiche Integration in den Forschungs- und Arbeitsalltag zu leisten. Alle Materialen werden gemeinschaftlich entwickelt und als Open Educational Resources zur Verfügung gestellt und greifen somit auch bei der Entwicklung von Trainingsangeboten wichtige Grundprinzipien der Digital Humanities auf." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_119";"Poster";"Postersession";"N.N.";"Erneuerung der Digitalen Editionen an der Herzog August Bibliothek Wolfenbüttel";"Torsten Schaßan";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";" Deutschland";"Marcus Baumgarten";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Timo Steyer";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Henrike Fricke-Steyer";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Martin de la Iglesia";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Dario Kampkaspar";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Lisa Klaffki";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";"Dietrich Parlitz";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";"Deutschland";;;;;;;"Die Wolfenbütteler Digitale Bibliothek (WDB) kann auf fast 20 Jahre Geschichte zurückblicken. Was einstmals als Pionier der Präsentation von Digitalisaten im Internet begann, ist mit der Zeit zu einem Konglomerat an Workflow-Tool, Speicherorganisation und Präsentationsoberfläche angewachsen. Zudem wuchs die Vielfalt neuer digitaler Inhalte, die unter der Oberfläche der WDB präsentiert werden, allen voran Digitale Editionen aller Art.Neue Endgeräte mit den Erfordernissen des Responsive Designs, Entwicklungen in der Präsentation von Objektdigitalisaten wie IIIF und Anforderungen an die Funktionalität digitaler Editionen machen nunmehr einen Neustart der WDB notwendig. In dem Poster soll die Bedarfsanalyse, die Marktsondierung und das konzeptionelle Herangehen an diese komplexe Aufgabe einerseits und sowie die Ergebnisse dieser Überlegungen andererseits präsentieren.Dabei geht nicht nur um eine technische Erneuerung, sondern auch um die Einbettung der neuen Infrastruktur in einen organisatorischen Workflow und die Frage, warum Infrastruktur altert und wie man dem entgegenwirken kann." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_121";"Poster";"Postersession";"N.N.";"Museum Analytics: Ein Online-Tool zur vergleichenden Analyse musealer Datenbestände";"Stefanie Schneider";"Ludwig-Maximilians-Universität München";"Deutschland";"Hubertus Kohle";"Ludwig-Maximilians-Universität München";"Deutschland";"Severin Burg";"Università di Bologna";"Italien";"Helmut Küchenhoff";"Ludwig-Maximilians-Universität München";"Deutschland";;;;;;;;;;;;;;;;;;;"Museen produzieren in den letzten Jahren verstärkt digitale Inventare ihrer Bestände, die sie zuweilen auch im Internet veröffentlichen. Üblicherweise werden einzelne Objekte aus die­sen Inventaren gefiltert" "28.03.2019";"16:00";"19:00";"HZ1";"Poster_122";"Poster";"Postersession";"N.N.";"Sachthematische Zugänge im Archivportal-D am Beispiel Weimarer Republik";"Nils Meyer";"Landesarchiv Baden-Württemberg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Im Rahmen eines zweijährigen DFG-Projekts wird ein neuer, themenbasierter Zugang zu den Unterlagen im Archivportal-D (www.archivportal-d.de) eingerichtet. Pilotbeispiel sind zwei Digitalisierungsprojekte zur Weimarer Republik. Im Rahmen des Projekts wird eine sachthematische Systematik zum Thema Weimarer Republik erarbeitet. Für die Zuordnung der Archivobjekte zu dieser Systematik wird ein Tool entwickelt, das den Anwenderinnen und Anwendern eine komfortable Anreicherung der Erschließungsdaten mit den notwendigen neuen Metadaten ermöglicht. Mittels eines maschinellen Lernverfahrens werden hierzu Vorschläge für die Klassierung der Unterlagen generiert. Nutzende und Archivpersonal sollen mit diesem Werkzeug künftig die Möglichkeit haben, gemeinsam die Datenbasis der Unterlagen im Archivportal kollaborativ zu verbessern." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_126";"Poster";"Postersession";"N.N.";"Auf alles gefasst? Metadaten im Virtuellen Kupferstichkabinett";"Julia Rössel";"Herzog August Bibliothek Wolfenbüttel";"Deutschland";"David Maus";"Herzog August Bibliothek Wolfenbüttel";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Nach circa 10 Jahren der Digitalisierung wurden für das Virtuelle Kupferstichkabinett, einem von der Herzog August Bibliothek Wolfenbüttel und dem Herzog Anton Ulrich-Museum Braunschweig erarbeiteten Online-Portal zur Recherche ihrer Graphischen Sammlungen, rund 100.000 Informationsobjekte erzeugt.Unser Poster stellt Konzeption, Methoden und erste Ergebnisse des aktuell stattfindenden Metadaten Assessment vor, welches die Qualität der bislang erzeugten Metadaten zu den Sammlungsobjekten, aber auch institutionelle und ökonomische Faktoren der Datenerzeugung und Verarbeitung, sowie Anforderungen verschiedener NutzerInnengruppen in den Blick nimmt. Da bislang die Präsentation im Internet die Vorstellungen über die digitalen Informationsobjekte stark prägt, gilt es im Hinblick auf die langfristige Nutzbarkeit dieser Daten ihre Wandelbarkeit als Ausgangspunkt für die Analyse zu betonen. Das Metadaten Assessment dient somit als Grundlage zur Entwicklung von Strategien, die zu einer langfristigen Sicherung der Datenqualität und Nutzbarkeit in verschiedenen medialen Konfigurationen verhelfen sollen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_127";"Poster";"Postersession";"N.N.";"Korrektur von fehlerhaften OCR Ergebnissen durch automatisches Alignment mit Texten eines Korpus";"Markus Bald";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Vincenzo Damiani";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Holger Essler";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Björn Eyeselein";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Christian Raul";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Frank Puppe";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;"Eine attraktive Form der Nachkorrektur von fehlerhaften OCR-Ergebnissen basiert auf dem Alignment mit bereits transkribierten Vergleichstexten, sofern diese existieren. Dazu präsentieren wir einen zweistufigen Ansatz, der zunächst mittels einer fehlertoleranten N-Gramm-Suche zu einer Zeile Vergleichszeilen findet, die dann in einem interaktiven Editor nachbearbeitet werden können. Die Evaluationen zeigen, dass der Ansatz selbst bei einer OCR-Genauigkeit von nur 80% - 85% gute Ergebnisse liefert. Er kann damit Philologen bei der Transkription alter Drucke trotz mäßig guter OCR-Qualität viel Zeit sparen, wenn ähnliche, bereits anderweitig transkribierte Texte oder Textausschnitte verfügbar sind." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_133";"Poster";"Postersession";"N.N.";"Eine Basis-Architektur für den Zugriff auf multimodale Korpora gesprochener Sprache";"Josip Batinic";"Institut für Deutsche Sprache";"Deutschland";"Elena Frick";"Institut für Deutsche Sprache";"Deutschland";"Joachim Gasch";"Institut für Deutsche Sprache";"Deutschland";"Thomas Schmidt";"Institut für Deutsche Sprache";"Deutschland";;;;;;;;;;;;;;;;;;;"Wir präsentieren Konzept und prototypische Implementierung einer Basis-Architektur für den Zugriff auf multimodale Korpora gesprochener Sprache (Audio-/Videodaten, Metadaten, Transkripte, Annotationen), wie sie im Projekt ZuMult (""Zugänge zu multimodalen Korpora gesprochener Sprache – Vernetzung und zielgruppenspezifische Ausdifferenzierung"") entwickelt werden. Ausgehend von einer vergleichenden Analyse vorhandener Plattformen und einer Bestandsaufnahme existierender Standards im Bereich multimedialer Daten wird eine Dreiebenen-Lösung entwickelt, die auf etablierte (De Facto-)Standards aufbaut und anschlussfähig an existierende Lösungen ist. Damit wird eine transferfähige Basis für einen flexiblen Zugriff auf multimodale Korpora geschaffen.Kern der Architektur ist zum einen eine objektorientierte Modellierung der Korpus-Bestandteile und ihrer Beziehungen zueinander. Für deren digitale Repräsentation werden Standards verwendet. Zum anderen beinhaltet die Architektur ein vereinheitlichtes Konzept zur Query auf Transkriptions- und Annotationsdaten. Dieses baut auf Überlegungen zu einer „Corpus Query Lingua Franca“ auf. Beide Komponenten werden technisch als „Locators“ bzw. „Filters“ in einer REST API umgesetzt. " "28.03.2019";"16:00";"19:00";"HZ1";"Poster_135";"Poster";"Postersession";"N.N.";"Das Latin Text Archive (LTA) – Digitale Historische Semantik von der Projektentwicklung an der Universität zur Institutionalisierung an der Akademie";"Tim Geelhaar";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Mit der neuen Datenbank „Latin Text Archive“ (LTA) im Rahmen der Dateninstruktur des „Deutschen Text Archivs“ (DTA) an der Berlin-Brandenburgischen Akademie der Wissenschaften erreicht die Arbeit zur digitalen Historischen Semantik in Frankfurt am Main ein neues Level. Nach einer Entwicklungsarbeit von mehr als zehn Jahren in befristeten Projektzusammenhängen steht nun eine institutionell gefestigte, wissenschaftlich verlässliche und leicht zu verwendende Datenbank zur Bereitstellung und computergestützten Analyse lateinischer Texte in validen Editionen zur allgemeinen Verfügung. Mit ihrer Hilfe lassen sich Techniken der Korpuslinguistik mit der klassischen Hermeneutik verbinden, indem die Datenbank einen sehr großen Textbestand (u.a. die Bestände der Monumenta Germaniae Historica) mit einem Bündel digitaler Analysemethoden zusammenführt. Der Vortrag wird den Weg skizzieren, der zum LTA geführt hat, Einsatzmöglichkeiten des Instrumentes vorstellen und reflektieren. Abschließend werden künftige Erweiterungen des LTA in methodischer Hinsicht vorgestellt, die den Aufbau von historischen Referenzkorpora zur Einordnung sprachlicher Phänomene in ihren geschichtlichen Kontext betreffen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_137";"Poster";"Postersession";"N.N.";"Das Niklas-Luhmann Archiv - Ein multimediales Dokumenten-Netz";"Sebastian Zimmer";"Universität zu Köln";"Deutschland";"Martina Gödel";"Universität zu Köln";"Deutschland";"Dana Persch";"Universität zu Köln";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Niklas Luhmann zählt zu den bedeutendsten Soziologen des 20. Jahrhunderts. Sein wissenschaftlicher Nachlass umfasst u.a. einen ca. 90.000 Notizzettel umfassender Zettelkasten, den Luhmann zwischen 1953 und 1996 gepflegt hat. Daneben finden sich annähernd 200 bislang unveröffentlichte Manuskripte von teils erheblichem Umfang. Im Rahmen des Projekts erfolgt eine theoriegenetische Erschließung des Nachlasses sowie im Anschluss daran eine Überführung des Materials in ein Internetportal. Ergänzend zur Präsentation des Nachlassmaterials wird das Portal eine Sammlung von Audio- und Videoaufnahmen präsentieren.Ein Ziel des Projektes ist es, sowohl die Dokumente innerhalb eines Bestandes als auch die verschiedenen Dokumentenbestände miteinander in Beziehung zu setzen. Das Webportal soll es ermöglichen, Querverbindungen nachzuvollziehen und so das Gesamtwerk Luhmanns in seiner Vernetztheit kennenzulernen. Dies soll mit multimedialen und multimodalen Einstiegs- und Navigationsmöglichkeiten erreicht werden: Facettierte Suchmöglichkeiten, interaktive Visualisierungen, bis hin zu 3D-Umgebungen. Die Visualisierungen bieten verschiedene Perspektiven auf das Werk: sowohl Gesamtüberblicke als auch dokumentenzentrierte Ansichten." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_143";"Poster";"Postersession";"N.N.";"Rooting through Direction – New and Old Approaches";"Armin Hoenen";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"In this paper two new methods to find the root of an unrooted tree are being presented. Unrooted trees are the output of some programs generating genealogical hypotheses for historical linguistics, stemmatology and some other disciplines. By example of stemmatology, the science of establishing the copy history of ancient texts we implement 4 approaches (Haigh 1970, Marmerola et al. 2016 and two own approaches) and test them on 3 benchmark datasets. For direction detection we use psycholinguistically determined letter confusion probabilities (Geyer 1977, Paap 1982). If one could assign the correct direction to edges in an unrooted tree, one would be able to locate root, but error rates may be a problem. We present Highest Direction Change Conversion Point Rooting which instead uses leaf-leaf paths and thus more context. Results point to a successful applicability." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_147";"Poster";"Postersession";"N.N.";"OCR Nachkorrektur des Royal Society Corpus";"Carsten Klaus";"Universität des Saarlandes";"Deutschland";"Peter Fankhauser";"Institut für Deutsche Sprache";"Deutschland";"Dietrich Klakow";"Universität des Saarlandes";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"We present an approach for automatic detection and correction of OCR-induced misspellings in historical texts. The main objective is the post-correction of the digitized Royal Society Corpus, a set of historical documents from 1665 to 1869. Due to the aged material the OCR procedure has made mistakes, thus leading to files corrupted by thousands of misspellings. This motivates a post processing step. The current correction technique is a pattern-based approach which due to its lack of generalization suffers from bad recall. To generalize from the patterns we propose to use the noisy channel model. From the pattern based substitutions we train a corpus specific error model complemented with a language model. With an F1-Score of 0.61 the presented technique significantly outperforms the pattern based approach which has an F1-score of 0.28. Due to its more accurate error model it also outperforms other implementations of the noisy channel model." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_155";"Poster";"Postersession";"N.N.";"Semantisch angereicherte Präsentationsschichten für geisteswissenschaftliche Webanwendungen";"Patrick Toschka";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Diese Masterarbeit befasst sich mit Möglichkeiten der Anreicherung von Präsentationsschichten geisteswissenschaftlicher Webanwendungen mit semantischen Metadaten. Viele aktuelle Forschungsapplikationen lagern Metadaten in eigene Datenschichten aus. Die Daten können von dort meist über mehr oder weniger standardisierte Schnittstellen (z. B. REST, SOAP) abgefragt werden. Für die Präsentationsschichten hingegen werden sie meist nur intern aufbereitet und statisch dargestellt. Dieses Verfahren ist adäquat für menschliche Rezipienten. Für einen maschinenlesbaren Zugriff auf die Präsentationsschichten ist die Verarbeitung der Daten ohne Nutzung der Schnittstellen meist sehr aufwendig, da bisher nur wenige bis keine Standards für die Anreicherung von Präsentationsschichten mit Metadaten vorhanden sind. Große Konzerne haben Methoden und Standards vorangetrieben, die im privatwirtschaftlichen Sektor neue Ansätze ermöglichen (z. B. JSON-LD, schema.org). In dieser Arbeit wird evaluiert, ob und welche dieser im wirtschaftlichen Sektor erfolgreichen Standards Vorteile im geisteswissenschaftlichen Forschungsumfeld bringen können. " "28.03.2019";"16:00";"19:00";"HZ1";"Poster_160";"Poster";"Postersession";"N.N.";"Pfälzische Burgen und ihre Umgebung im Mittelalter, modelliert anhand von Neo4j, QGIS und 3D Modellen";"Aaron Pattee";"Ruprecht-Karls-Universität Heidelberg";"Deutschland";"Andreas Kuczera";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Armin Volkmann";"Stiftung Preußischer Kulturbesitz";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Das interdisziplinäre Projekt an der Schnittstelle der Baugeschichte und angewandter Informatik untersucht sechs Burgen der mittelalterlichen Pfalz um den Zusammenhang zwischen Sozialhierarchie, Architektur und Landschaft zu forschen. Das Ziel ist neue Kenntnisse zur chronologischen Baugeschichte zu gewinnen anhand der Verbindung heterogenen Daten in einer Graphendatenbank. Drei Komponente bezogen auf verschiedenen Methoden der Informatik und Geoinformatik dienen dazu Ergebnisse in einer Neo4j-basierten Datenbank zu verbinden: 1. Räumliche Landschaftanalysen in Geographischen Informations-Systemen (GIS), basieren auf der systematischen Auswertung digitaler Geländemodelle (DGM) mit 32 weiteren geo-referenzierten historischen Landkarten (1540-1799 n.Chr.), und werden durchgeführt, um neue Kenntnisse zur strategischen und politischen Funktionen der Bauten zu erhalten; 2. Die Fallstudien werden fotogrammetrisch sowie mit einem terrestrischen Laserscanner (TLS) hochgenau vermessen und zur detaillierten Landschaftsanalyse in den GIS verknüpft; 3. Eine Netzwerkanalyse von 310 überlieferten Urkunden (882-1589 n.Chr.) der Inhaber der Burgen um das Projekt in den historischen Kontext der Pfalz einzuordnen und Verbindungsstrukturen aufzuzeigen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_163";"Poster";"Postersession";"N.N.";"Automatische Übersetzung als Bestandteil eines philologischen B.A.-Curriculums mit DH-Schwerpunk";"Anne Baillot";"Le Mans Université";"Frankreich";"Jane Wottawa";"Le Mans Université";"Frankreich";"Loïc Barrault";"Le Mans Université";"Frankreich";"Fethi Bougares";"Le Mans Université";"Frankreich";;;;;;;;;;;;;;;;;;;"In diesem Poster wird das im WS 2018/19 an der Universität Le Mans umgesetzte Konzept der Einbettung eines Seminars zur halbautomatischen Übersetzung in ein reguläres philologisches Curriculum dargestellt und deren Ergebnisse kritisch beleuchtet." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_169";"Poster";"Postersession";"N.N.";"Ein Editionsportal (nicht nur) für Thüringen";"Martin Prell";"Friedrich-Schiller-Universität Jena";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Ziel des an der Universität Jena durchgeführten Projekts ist die Entwicklung eines uneingeschränkt zugänglichen Onlineportals zur Publikation digitaler historisch-kritischer Editionen von vorrangig handschriftlichen Quellen der Neuzeit. Es wird an der Thüringer Universitäts- und Landesbibliothek gehostet und in Zusammenarbeit mit zahlreichen Kooperationspartnern im In- und Ausland realisiert. Mit TEI-basierten Meta- und Volltextdaten, Digitalisaten, Registern, Paratexten, Visualisierungen, gezielten Such-, Sortierungs- und Filteroptionen wird das Editionsportal Thüringen eine wissenschaftlich hochwertige digitale Publikations- und Rechercheumgebung anbieten. Das Portal spricht in erster Linie (aber nicht ausschließlich) Projekte an, die kein eigenes Onlineportal entwickeln und nachhaltig betreiben können oder möchten. Ein Bezug zu dezidiert Thüringer Quellen, Institutionen o.ä. ist dabei keineswegs verpflichtend. Damit die Editionen des Portals den Heraus- und Anforderungen exzellenter digitaler Editionen entsprechen, liegen Entwicklungsschwerpunkte auf bestimmten Aspekten wie Nachnutzung und Langzeitverfügbarkeit, multimodale editorische Benutzung und fachwissenschaftliche Recherche. Das Portal verortet sich zwischen einzelprojektnivellierenden Textsammlungsportalen einerseits und nicht/unzureichend projektübergreifend erforschbaren Einzeleditionsportalen andererseits." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_180";"Poster";"Postersession";"N.N.";"Bauanleitung für einen Forschungsraum mit institutionellem Fundament: Erfahrungen aus fünf Jahren Infrastrukturentwicklung im Forschungsverbund MWW";"Timo Steyer";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";" Deutschland";"Swantje Dogunke";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Klassik Stiftung Weimar";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Ein Schwerpunkt des Forschungsverbunds Marbach Weimar Wolfenbüttel besteht im Aufbau einer digitalen Infrastruktur, um bestandsbezogene Forschung von der Korpusbildung über Analyse- und Auswertungsverfahren bis zur Veröffentlichung von Forschungsergebnissen digital zu unterstützen. Das infrastrukturelle Profil konzentriert sich auf den Bereich der Sammlungsforschung und führt über diese thematische Ausrichtung Erschließung und Forschung zusammen. Durch die gemeinsame Forschungsinfrastruktur sollen die Sammlungen und die damit verbundenen Forschungsaktivitäten virtuell zusammenwachsen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_186";"Poster";"Postersession";"N.N.";"Zedlers fehlende Seiten: Digitale Quellenkritik und Analoge Erkenntnisse";"Andreas Müller";"Martin-Luther-Universität Halle-Wittenberg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Das Poster präsentiert Ergebnisse einer sowohl digitalen als auch analogen Quellenkritik zu Johann Heinrich Zedlers „Universal-Lexicon“ (1731-1754). Das 68 Bände umfassende Lexikon ist durch das Projekt „Zedler-lexikon.de“ bereits digital erschlossen. Der Frage nachgehend, inwiefern die Erfassung zuverlässig und vollständig war, wurde die Anzahl der Scanbilder zur gedruckten Seitenzählung in Bezug gesetzt. Dabei zeigte sich, dass laut Seitenzählung teilweise hunderte Seiten pro Band „fehlten“. Im Abgleich mit dem analogen Original erklärte sich dies durch Fehler im Buchdruck. Diese Fehler nahmen jedoch über die 23-jährige Erscheinungsdauer des Lexikons konsistent ab und reflektieren deutlich die Wirkungszeit der drei Redakteure (Jakob August Franckenstein 1731-32, Paul Daniel Longolius 1733-35 und Carl Günther Ludovici 1738-54). Die Kritik der digitalen Quelle konnte somit „analoge“ Erkenntnisse erzielen. Zusätzlich zeigte eine Analyse der Metadaten von Zedler-Lexikon.de eine Veränderung von Artikellängen und Verweiszahlen der einzelnen Bände und weist damit auf einen Wandel des Werks vom Konversationswörterbuch zur Enzyklopädie hin." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_188";"Poster";"Postersession";"N.N.";"FormIt: Eine multimodale Arbeitsumgebung zur systematischen Erfassung literarischer Intertextualität";"Frederik Schlupkothen";"Bergische Universität Wuppertal";"Deutschland";"Julia Nantke";"Bergische Universität Wuppertal";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Im Projekt FormIt kommen verschiedene Repräsentations-Modi zum Einsatz, um den beiden wechselwirkenden Herausforderungen der mangelnden Sichtbarkeit und Konkretisierung geisteswissenschaftlicher Praktiken im Kontext literarischer Intertextualität zu begegnen. Im Rahmen des Projekts wird die Praxis der Herstellung und Interpretation intertextueller Beziehungen zwischen literarischen Texten mithilfe digitaler Methoden und Werkzeuge präzisiert und für Dritte beobachtbar gemacht. Dies geschieht anhand der konsequenten Verknüpfung der Ebenen, auf denen sich intertextuelle „Schreibweisen“ (Verweyen/Wittig 2010, S. 38) im Text manifestieren, mit den Schlussfolgerungen darüber, „was das Charakteristikum ”šIntertextualität”˜ konkret für einen Text bedeutet“ (Kocher 2007, S. 180). Ziel ist es, anhand einer multidirektionalen Verbindung zwischen Texten und Deutungen den Prozess der Abstraktion von intertextuellen Funktionsweisen zu konkretisieren und zu explizieren." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_190";"Poster";"Postersession";"N.N.";"Herausforderungen für Thementhesauri und Sachregister-Vokabularien zur Erschließung im Kontext des digitalen Editionsprojekts Cisleithanische Ministerratsprotokolle";"Stephan Kurz";"Österreichische Akademie der Wissenschaften";"Österreich";"Ksenia Zaytseva";"Österreichische Akademie der Wissenschaften";"Österreich";;;;;;;;;;;;;;;;;;;;;;;;;"Die digitale Edition der Cisleithanischen Ministerratsprotokolle deckt ein breites Spektrum ökonomischer, sozialer und gouvernmentaler Themen ab und ist damit eine herausragende Quelle für die historische Forschung zur Habsburgermonarchie. Die Herausforderung besteht darin, die thesaurus- und vokabularbasierte Erschließung für die Sachregister des gedruckten Teils der hybriden Edition vorzunehmen und zugleich Methoden zu entwickeln, um mithilfe von topic modeling und NLP-Verarbeitung auch das bestehende Korpus von rund 18000 retrodigitalisierten Seiten aus der vorangegangenen Serie der Edition tiefer erschließen zu können. Präsentiert werden Zwischenergebnisse aus dem Editionsworkflow sowie vorläufige Überlegungen zur Methodik der Themenerschließung." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_193";"Poster";"Postersession";"N.N.";"text2ddc meets Literature - Ein Verfahren für die Analyse und Visualisierung thematischer Makrostrukturen";"Alexander Mehler";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Tolga Uslu";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Rüdiger Gleim";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Daniel Baumarzt";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";;;;;;;;;;;;;;;;;;;"In diesem Poster geht es um die thematische Analyse und Visualisierung literarischer Werke mithilfe automatisierter Klassifikationsalgorithmen. Hierfür wird ein bereits entwickelter Algorithmus namens text2ddc (Uslu et. al. 2018) verwendet, um die Themenverteilungen literarischer Werke zu identifizieren. Darüber hinaus thematisiert der Beitrag, wie diese Verteilungen von Themen und deren Abhängigkeiten untereinander visualisiert werden können." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_195";"Poster";"Postersession";"N.N.";"Gute Wörter für Delta: Verbesserung der Autorschaftsattribution durch autorspezifische distinktive Wörter";"Friedrich Dimpel";"Friedrich-Alexander-Universität Erlangen-Nürnberg";"Deutschland";"Thomas Proisl";"Friedrich-Alexander-Universität Erlangen-Nürnberg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Verschiedene Verfahren zur Ermittlung der distinktiven Wörter mit Burrows”™ Delta werden in einer Reihe an Tests evaluiert. Verwendet werden dabei 280 Texte von 32 Autoren (ca. 19. Jahrhundert). Die Gute-Wörter-Verfahren führen zu besseren Erkennungsquoten; in geringem Umfang treten mehr False-Positives auf, doch sind die positiven Effekte größer als die negativen. Die detaillierten Zahlen, für die hier kein Platz verfügbar ist, zeigen, dass die False-Positives je nach Autor erheblich schwanken. Eine solche Verfahrensoptimierung ist wichtig, um Autorschaftsfragen auch bei schwierigen Bedingungen untersuchen zu können – etwa bei mittelhochdeutscher Kleinepik mit dialektaler Varianz, fehlender orthographischer Standardisierung und eigentlich zu kurzen Texten." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_196";"Poster";"Postersession";"N.N.";"Leistungsfähige und einfache Suchen in lexikografischen Datennetzen";"Peter Meyer";"Institut für Deutsche Sprache";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Graphenbasierte Ansätze spielen in der digitalen Lexikografie eine immer stärkere Rolle. Essentiell für die Erstellung, Verwaltung und Nutzung graphenbasierter lexikografischer Ressourcen ist jedoch eine leistungsfähige und zugleich einfach zu handhabende Zugriffsstruktur, die Suchen nach komplexen Konstellationen in solchen Graphen ermöglicht. Für heutige Graphendatenbanken stehen zahlreiche Abfragesprachen zur Verfügung, deren Verwendung jedoch verhältnismäßig voraussetzungsreich ist.Das Poster stellt einen webbasierten, frei konfigurierbaren Query Builder vor, der die Formulierung semantisch sehr komplexer Suchabfragen an eine (mit dem Tinkerpop-Standard kompatible) Property-Graphendatenbank ermöglicht. Die Abfrage erfolgt durch einfaches visuell-interaktives Zusammenstellen hierarchisch angeordneter Abfrageelemente und liefert Antworten in Echtzeit. Dabei wird von den Komplexitäten der verwendeten Low-level-Abfragesprache Gremlin abstrahiert. Der Query Builder ist ein zentrales Modul eines derzeit entwickelten Open-Source-Softwaresystems zur Verwaltung und Online-Publikation graph-erweiterter lexikografischer Ressourcen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_200";"Poster";"Postersession";"N.N.";"Ein Web Annotation Protocol Server zur Untersuchung vormoderner Wissensbestände";"Danah Tonne";"Karlsruher Institut für Technologie";"Deutschland";"Germaine Götzelmann";"Karlsruher Institut für Technologie";"Deutschland";"Philipp Hegel";"Freie Universität Berlin";"Deutschland";"Michael Krewet";"Freie Universität Berlin";"Deutschland";"Julia Hübner";"Freie Universität Berlin";"Deutschland";"Sibylle Söring";"Center für Digitale Systeme Freie Universität Berlin";"Deutschland";"Andreas Löffler";"Karlsruher Institut für Technologie";"Deutschland";"Michael Hitzker";"Karlsruher Institut für Technologie";"Deutschland";"Markus Höfler";"Karlsruher Institut für Technologie";"Deutschland";"Timo Schmidt";"Karlsruher Institut für Technologie";"Deutschland";"Der Sonderforschungsbereich 980 (SFB 980) „Episteme in Bewegung“ untersucht Prozesse des Wissenstransfers und Wissenswandels in europäischen und nicht-europäischen Kulturen vom 3. Jahrtausend vor Christus bis etwa 1750 nach Christus. Um diese komplexen multidirektionalen und multidimensionalen Prozesse beschreiben zu können, werden digitale Werkzeuge entwickelt, die auch auf größere Mengen an Texten und Bildern angewendet werden. An Hand zweier Anwendungsfälle, der de interpretatione-Kommentierung der Spätantike und Sprachlehrwerken der Frühen Neuzeit, werden die konkreten Möglichkeiten des Einsatzes von Annotationswerkzeugen dargelegt. Auf technischer Ebene wird die Anreicherung mit zusätzlichen Informationen mittels der W3C-Empfehlung Web Annotation Data Model sowie einem RDF-basierten Annotationsserver realisiert. Der Vortrag soll einen Einblick in die technischen Herausforderungen in Bezug auf Modellierung, Interoperabilität und Auswertung sowie die Auswirkungen auf den geisteswissenschaftlichen Forschungsprozess bieten." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_201";"Poster";"Postersession";"N.N.";"Modellprojekt ""eHumanities - interdisziplinär"": Forschungsdatenmanagement im Rahmen des ""Digitalen Campus Bayern""";"Julian Schulz";"Ludwig-Maximilians-Universität München";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Das im Rahmen des ""Digitalen Campus Bayern"" vom Bayerischen Ministerium für Wissenschaft und Kunst geförderte Modellprojekt ""eHumanities - interdisziplinär"" sieht sich an der Schnittstelle zwischen übergeordneten Forschungsdateninfrastrukturen (NFDI) und lokalen, geisteswissenschaftlichen Akteuren.Ziel des Projekts ist es, abgestimmt auf die Bedürfnisse der digitalen Geisteswissenschaften modellhaft Konzepte, Services und Workflows sowie konkrete technische Lösungen für das Forschungsdatenmanagement (zunächst) an den Standorten Erlangen-Nürnberg und München zu erarbeiten. Aufbauend auf den dabei gewonnenen Erfahrungen werden Schulungs- und Lehrangebote konzipiert.Das einzureichende Poster möchte einen Überblick über die im Laufe des ersten Projektjahres in fünf Arbeitspaketen erzielten Ergebnissen geben und diese in den Gesamtkontext der aktuellen Diskussionen um das Forschungsdatenmanagement in den Geisteswissenschaften einbetten. Anhand eines Anwendungsfalls (Projekt VerbaAlpina), der im Rahmen von „eHumanities – interdisziplinär“ als Pilotprojekt fungiert, sollen die organisatorischen und technischen Abläufe anschaulich präsentiert und zur Diskussion gestellt werden sowie zukünftige Arbeitsschritte bzw. Desiderate aufgezeigt werden." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_202";"Poster";"Postersession";"N.N.";"I like to PROV it! Ein Data Object Provenance Tool für die Digital Humanities";"Peter Mühleder";"Universitätsbibliothek Leipzig";"Deutschland";"Tracy Hoffmann";"Universitätsbibliothek Leipzig";"Deutschland";"Florian Rämisch";"Universitätsbibliothek Leipzig";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Der Umgang mit Forschungsdaten ist inzwischen ein wichtiger Bestandteil geisteswissenschaftlicher Forschungsprojekte. Um einen Überblick über diese zu behalten, kommen oft individuelle Lösungsstrategien zum Einsatz, welche in vielen Fällen für andere Personen schwer nachzuvollziehen sind. Dabei ist die Nachvollziehbarkeit entscheidend dafür, ob die Daten später von anderen Forschenden nachgenutzt werden können. Um dieses Ziel zu erreichen sollte die Provenance von Daten (Informationen zu Herkunft, Verarbeitungsprozesse, etc.) während des Forschungsdatenlebenszyklus mit erfasst werden.Wir präsentieren Provit, ein Tool, dass es ermöglicht, auf eine standardisierte, einfache Weise Provenance zu Forschungsdatenobjekten (unabhängig von Dateiformat und Bearbeitungsform) zu erfassen, ohne dabei auf eine komplexe technische Infrastruktur angewiesen zu sein. Die Verwendung von RDF Technologien stellt dabei die Interoperabilität sicher und ein mitgelieferter Visualisierungs-Browser ermöglicht die Ansicht und das Verständnis der Provenance-Daten auch für nicht-technische Forschenden." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_204";"Poster";"Postersession";"N.N.";"DER STURM. Digitale Quellenedition zur Geschichte der internationalen Avantgarde. Drei Forschungsansätze.";"Anne Katrin Lorenz";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";"Lea Müller-Dannhausen";"Johannes Gutenberg-Universität Mainz";"Deutschland";"Marjam Trautmann";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Vorgestellt wird das digitale Editions- und Forschungsprojekt “DER STURM. Digitale Quellenedition zur Geschichte der internationalen Avantgarde” (https://sturm-edition.de) mit seinen Funktionalitäten und Inhalten. Gegenstand der Webanwendung ist das 1910 gegründete Berliner Kunstunternehmen “Der Sturm” um den Publizisten, Komponisten und Kritiker Herwarth Walden, der zahlreichen, auch internationalen Künstlerinnen und Künstlern aus den Bereichen der Literatur, Musik, bildenden Kunst und des Theaters eine Plattform bot. Die in die Edition eingehenden Quellen bilden derzeit Briefe an Herwarth Walden, die Zeitschrift “Der Sturm”, Ausstellungskataloge, die Jahrbücher der “Sturm”-Bühne sowie im “Sturm”-Verlag erschienene Schriften. Von der digitalen Quellenedition ausgehend demonstrieren wir an drei beispielhaften Forschungsansätzen das Potential, das diese mit ihren Inhalten und der spezifischen Form der Aufbereitung bietet – für die Digital Humanities sowie für einzelne Fachwissenschaften." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_206";"Poster";"Postersession";"N.N.";"Paleocoran: Virtuelle Rekonstruktion von Korankodizes mit IIIF";"Oliver Pohl";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Michael Marx";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Stefanie Franke";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Farah Artika";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Markus Schnöpf";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Edin Mahmutovic";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;"Das Projekt Paleocoran untersucht Koran-Handschriftenfragmente aus dem siebten bis zehnten Jahrhundert aus der Moschee des Ê¿Amr ibn al-Ê¿Ä€s in al-Fuá¹£tÄt (Alt-Kairo), welche aber heute in verschiedenen Bibliotheken und Privatsammlungen weltweit verteilt vorliegen. Dabei verzeichnet Paleocoran materielle und paleographische Evidenzen in diesen Handschriftenfragmenten, um die gemeinsame Herkunft verschiedener Fragmente zu identifizieren und so in ihrer ursprünglichen Form als Korankodex mittels IIIF digital rekonstruieren zu können." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_207";"Poster";"Postersession";"N.N.";"Weltkulturerbe international digital: Erweiterung der Wittgenstein Advanced Search Tools durch Semantisierung und neuronale maschinelle Übersetzung";"Ines Röhrer";"Ludwig-Maximilians-Universität München";"Deutschland";"Sabine Ullrich";"Ludwig-Maximilians-Universität München";"Deutschland";"Maximilian Hadersbeck";"Ludwig-Maximilians-Universität München";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Auf unserem Poster sollen zwei neue Komponenten der Wittgenstein Advanced Search Tools (WAST) vorgestellt werden:Zum einen wird das seit Jahren bestehende digitale Lexikon WiTTLex durch ein Wittgenstein-spezifisches Synonymie-Lexikon WiTTLEx Synonym erweitert. Die Grundlage für dieses Lexikon ist einerseits die durch WiTTLex geschaffene Wortdatenbank, sowie andererseits die aus GermaNet und WordNet extrahierten Synonyme. Ein schrittweiser Aufbau und Erweiterung eines Synonymielexikons ermöglicht eine Evaluation von GermaNet im sprachlichen Kontext der Philosophie und kann Anzahl und Güte gefundener Synonyme zeigen.Die zweite Erweiterung der WAST betrifft den internationalen Zugang der Suchmaschine für nicht deutschsprachige Wissenschaftler. Die gefundenen Faksimile und deren Transkription aus Bergen können derzeit nur in Originalsprache angezeigt werden. Daher wird ein maschinelles Übersetzungssystem integriert, um Philosophen und anderen Interessierten aus aller Welt einen möglichst objektiven Zugang zum Nachlass zu ermöglichen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_217";"Poster";"Postersession";"N.N.";"Umfrage zu Forschungsdaten in den Geistes- und Humanwissenschaften an der Universität zu Köln";"Katja Metzmacher";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Patrick Helling";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Jonathan Blumtritt";"Data Center for the Humanities Universität zu Köln";"Deutschland";"Brigitte Mathiak";"Data Center for the Humanities Universität zu Köln";"Deutschland";;;;;;;;;;;;;;;;;;;"Um Bedarfe der Wissenschaftler*innen im Umgang mit Forschungsdaten an der Geisteswissenschaftlichen und Humanwissenschaftlichen Fakultät der Universität zu Köln zu ermitteln, haben wir eine Umfrage entwickelt. Ziel dieser Umfrage ist vor allem die Charakterisierung der vorhandenen digitalen Forschungsdatenbestände und der Beratungsbedarfe der Wissenschaftler*innen zu erheben.2016 haben wir bereits eine Umfrage an der Philosophischen Fakultät durchgeführt, und können daher kurzfristige Veränderungen beobachten. Darüber hinaus haben wir den Fragebogen erweitert, um auch die Rolle der Befragten als Nutznießer von publizierten Forschungsdaten zu ermitteln." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_218";"Poster";"Postersession";"N.N.";"Der TextImager als Front- und Backend für das verteilte NLP von Big Digital Humanities Data";"Wahed Hemati";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Alexander Mehler";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Tolga Uslu";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Giuseppe Abrami";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";;;;;;;;;;;;;;;;;;;"Wir stellen ein Konzept zur flexiblen Erweiterung des Bereichs des Natural Language Processing (NLP) auf Basis von TextImager vor. Zu diesem Zweck stellen wir eine UIMA-basierte Serverarchitektur vor, die im Grundsatz offen ist: Wissenschaftler können teilnehmen und dazu beitragen.Diese Architektur kann helfen, NLP-Tools oder -Pipelines, die proprietär oder geschützt sind, der gesamten Digital Humanities Gemeinschaft zugänglich zu machen.Der Beitrag erörtert die Möglichkeiten und Grenzen des NLP von Big Data, stellt den TextImager als Werkzeug für diesen Bereich zur Diskussion und zeigt anhand von drei Nutzungsszenarien Einsatzmöglichkeiten in den DH auf." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_219";"Poster";"Postersession";"N.N.";"„Medialization follows function!“ Multimodaler Hypertext als Ausdrucksmedium für die Geisteswissenschaften";"Christian Wachter";"Georg-August-Universität Göttingen";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Geisteswissenschaftler*innen stellen Wissen nicht als ein Nebeneinander von losen Einzelinformationen her, sondern sie bilden interpretierend „Sinn-volle“ Zusammenhänge zwischen Informationen. Diese Kohärenzstrukturen finden dann ihren symbolischen Ausdruck in Publikationsmedien. Klassischerweise spielen dabei lineare Narrative in Drucktexten eine zentrale Rolle – vor allem weil so die sequenzierte Struktur von Argumentationsverläufen, chronologischen Schilderungen, etc. auf eine direkte Weise im Textfluss abgebildet wird. Bei Gleichzeitigkeiten, Multiperspektivität, alternativen Deutungsangeboten und anderen pluralistischen, nicht-linearen Zusammenhängen stößt Drucktext allerdings an seine Grenzen. Hier leistet interaktiver und multimodal gestalteter Hypertext als Publikationsform mehr: Mit meinem Promotionsprojekt argumentiere ich, dass Hypertext die „Architektur“ von Argumentationsgebäuden als pluralistisch gestaltete Kohärenzstrukturen sichtbar werden lassen kann. Geisteswissenschaftler*innen können auf diese Weise also explizit kenntlich machen, wie sie ihr pluralistisches Wissen aufbauen. Mit diesem Konnex zwischen Knowledge Design und Mediendesign möchte ich einen medientheoretischen Beitrag zum E-Publishing leisten. Er folgt keiner medienzentrierten Perspektive, sondern hebt von Strategien und Zielen geisteswissenschaftlicher Wissenserzeugung ab." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_220";"Poster";"Postersession";"N.N.";"Multimedia aus Rezipientenperspektive: Wirkungsmessung anhand von Biofeedback";"Daniel Schlör";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Blerta Veseli";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Andreas Hotho";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"In dieser Arbeit stellen wir eine Smartphone App zur Vermessung von Körperreaktionen wie Herzschlag oder Bewegung auf Multimedia Konsum vor. Die App ist darauf ausgelegt, der breiten Masse an Konsumenten ein einfaches Werkzeug für self-tracking beim Medienkonsum an die Hand zu geben und bietet damit die Möglichkeit Studien sehr einfach durchzuführen, die Zusammenhänge zwischen narrativen Ereignissen und physiologischen Vorgängen untersuchen. In einer multimedialen Versuchsreihe wurden beim Lesen von vier Kurzgeschichten und Schauen von einem Kurzfilm körpernahe Sensordaten von insgesamt 15 Probanden aufgezeichnet. Dabei konnte gezeigt werden, dass auch mit einfachen Fitness Trackern körperliche Reaktionen auf wahrgenommene Inhalte messbar sind." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_224";"Poster";"Postersession";"N.N.";"CMIF Creator - digitale Briefverzeichnisse leicht erstellt";"Jonas Müller-Laackman";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Stefan Dumont";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Sascha Grabsch";"Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Mit dem CMIF Creator wurde im Rahmen des DFG-Projekts ""correspSearch - Briefeditionen vernetzen"" ein Werkzeug entwickelt, mit dessen Hilfe digitale Briefverzeichnisse von bereits gedruckten Editionen einfach und ohne technische Kenntnisse erstellt werden können. Der CMIF Creator bietet dem Benutzer eine übersichtliche, formularbasierte Oberfläche um Briefmetadaten zu erfassen. Über eine Schnittstelle sind zudem die Gemeinsame Normdatei (GND) der Deutschen Nationalbibliothek und der freie Ortsnamendienst GeoNames angebunden. Damit wird die Eingabe eindeutiger Norm-IDs, die für die projektübergreifende Recherche in correspSearch unerlässlich sind, für Personen und Orte unterstützt. Die NutzerInnen können zu jedem Zeitpunkt der Bearbeitung die Daten im standardisierten CMIF- Format lokal speichern und von dort aus wieder für die Weiterbearbeitung laden. Der CMIF Creator steht unter https://correspsearch.net/creator/index.xql zur Verfügung" "28.03.2019";"16:00";"19:00";"HZ1";"Poster_226";"Poster";"Postersession";"N.N.";"VAnnotatoR: Ein Werkzeug zur Annotation multimodaler Netzwerke in dreidimensionalen virtuellen Umgebungen";"Giuseppe Abrami";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Christian Spiekermann";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";"Alexander Mehler";"Johann Wolfgang Goethe-Universität Frankfurt am Main";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Die Verarbeitung, Erzeugung und Visualisierung von multimodalen Netzwerken, in denen etwa symbolische und ikonographische Inhalte miteinander vernetzt werden, um sie multimodal rezipierbar zu machen, bilden neuartige Herausforderungen für die digitalen Geisteswissenschaften, da sie weitüber textbasierte Medien hinausreichen. Digitalisate von Schrifttexten, Bildern und Illustrationen können in diesem Zusammenhang als Beispiele für knotenbildende Informationsobjekte ebenso genannt werden wie dreidimensionale objektrepräsentationen. Die Anordnung dieser Objekte zu semiotischen Netzwerken hat den Zweck, deren Zusammenhangsstruktur zu visualisieren und rezipierbar zu machen.Multimodale Netzwerke waren bereits Gegenstand einer Reihe von Projekten. sich darunter kein Projekt, das eine generische Plattform zur Visualisierung und Annotation solcher Netzwerke im Rahmen virtueller Umgebungen zur Verfügung stellt. Hierzu wurde VAnnotatoR zur Bearbeitung und Visualisierung dieser Netzwerke als multimodale Hypertexte in der virtuellen / augmentierten Realität entwickelt. Inwiefern VAnnotatoR als interdisziplinäres Werkzeug der digitalen Geisteswissenschaften aufzufassen ist, soll Diskussionsgegenstand der Präsentation dieses Systems sein." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_228";"Poster";"Postersession";"N.N.";"Multimodales Zusammenspiel von Text und erlebter Stimme – Analyse der Lautstärkesignale in direkter Rede";"Svanja Guhr";"GCDH Universität Göttingen";"Deutschland";"Hanna Varachkina";"GCDH Universität Göttingen";"Deutschland";"Geumbi Lee";"GCDH Universität Göttingen";"Deutschland";"Caroline Sporleder";"GCDH Universität Göttingen";"Deutschland";;;;;;;;;;;;;;;;;;;"Lautstärke lässt sich in literarischen Texten nur näherungsweise abbilden. Eine wichtige Rolle spielen hierbei die redeeinleitenden Verben (Verba Dicenci), die es erlauben, zumindest den sprechenden Personen ein relatives Lautstärkeprofil zuzuordnen. Wir untersuchen wie Lautstärke mithilfe der Verba Dicendi transportiert wird und ob ein so berechnetes Lautstärkeprofil mit literaturwissenschaftlich relevanten Kategorien korreliert, insbesondere ob sich die Betontheit des inneren Ausdrucks im literarischen Expressionismus auch in der verbalen Darstellung einer größeren Lautstärke widerspiegelt." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_229";"Poster";"Postersession";"N.N.";"Mit neuen Suchstrategien vom isolierten Text zu 'illuminierten Urkunden'";"Martina Bürgermeister";"Universität Graz";"Österreich";"Gabriele Bartz";"Österreichische Akademie der Wissenschaften";"Österreich";"Markus Gneiß";"Österreichische Akademie der Wissenschaften";"Österreich";;;;;;;;;;;;;;;;;;;;;;"Immer mehr mittelalterliche Urkunden sind heute digital verfügbar, doch viele nur als Text in Urkundenbüchern. Eine Suchabfrage nach Illuminationen führt in diesen Fällen kaum zu Treffern. Das heißt, mit klassischen Suchstrategien sind ”šilluminierte Urkunden”˜ wenn überhaupt nur mit sehr hohem Zeitaufwand auffindbar. Das Ziel dieses gemeinsamen Projekts ist es, Hinweise auf Illuminationen in den Metadatentexten aufzufinden. Dazu werden in einem mehrstufigen Textanalyseprozess aus bereits erschlossenen Urkunden automatisiert Stichwörter extrahiert („keyword extraction“), gerankt und zur API-Abfrage von online Archivdatenbanken aufbereitet, um zu neuen Treffern zu führen. Unser Beitrag ist als Reaktion auf das wahrgenommene Defizit der isolierten Betrachtung von Text- und Bilddaten zu verstehen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_230";"Poster";"Postersession";"N.N.";"Multimodale Sentimentanalyse politischer Tweets";"Stefan Ziehe";" GCDH Universität Göttingen";"Deutschland";"Caroline Sporleder";"GCDH Universität Göttingen";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Tweets mit politischem Inhalt können eine nützliche Datenquelle für die Analyse von Prozessen zur politischen Meinungsbildung sein. Von besonderem Interesse ist hierbei, wie sich die Zustimmung zu Parteien, Programmen oder Themen ändert und was diese Änderungen auslöst. Um dies zu untersuchen ist die Sentimentanalyse ein nützliches Verfahren. Für Texte funktioniert dies meist recht gut, Twitter, jedoch, zeichnet sich durch eine ausgesprochen multimodale Natur aus. Insbesondere Bilder werden gerne mit den eigentlichen Texten kombiniert. Häufig müssen Bild und Text gemeinsam betrachtet werden, um das korrekte Sentiment zu identifizieren. Das vorliegende Abstract untersucht und vergleicht verschiedene Deep Learning-Verfahren und -Architekturen zur multimodalen Sentimentanalyse." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_234";"Poster";"Postersession";"N.N.";"Linked Open Travel Data: Erschließung gesellschaftspolitischer Veränderungen im Osmanischen Reich im 19. Jahrh. durch ein multimediales Online-Portal";"Jörg Wettlaufer";"Georg-August-Universität Göttingen";"Deutschland";"Deniz Kilincoglu";"Georg-August-Universität Göttingen";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Das lange 19. Jahrhundert war ein Zeitalter einer schnellen und radikalen Transformation für das Osmanische Reich. Der Aufstieg des Nationalismus unter den verschiedenen ethnischen und religiösen Gemeinschaften des Reiches war dabei einer der entscheidenden Faktoren bei dieser Transformation. In diesem Projekt sollen Informationen zur politischen Situation und zur Wahrnehmung dieser Transformation durch Reisende im Osmanischen Reich in diesem Zeitraum zusammengetragen und erschlossen werden.In einem Online Portal (middle-east-travelers.de) werden Informationen zu den Reisenden und ihren Berichten zusammengetragen. Dabei wird ein Linked Open Data Ansatz verfolgt, der die extrahierten Entitäten und Informationen als Ressourcen für multimodale Forschungsansätze zur Verfügung stellt. Für die Analyse wird Open Semantic Search (www.opensemanticsearch.org) verwendet, eine Enterprise Suchumgebung mit integrierter NER und Linked Open Data Funktionalität." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_243";"Poster";"Postersession";"N.N.";"Linked Biondo - Modelling Geographical Features in Renaissance Text and Maps";"Günther Görz";"Bibliotheca Hertziana/ FAU Erlangen-Nürnberg";"Italien / Deutschland";"Chiara Seidl";"Bibliotheca Hertziana / FAU Erlangen-Nürnberg";"Italien / Deutschland";"Martin Thiering";"Bibliotheca Hertziana / FAU Erlangen-Nürnberg";"Italien / Deutschland";;;;;;;;;;;;;;;;;;;;;;"Bibliotheca Hertziana's project ""Historical spaces in texts and maps"" aims at a cognitive-semantic analysis of Flavio Biondo's ""ItaliaIllustrata"" linking with contemporary maps. At focus are relationsbetween historical maps and texts aiming to explore the historicalunderstanding of space. We combine cognitive-semantic parameters suchas toponyms, landmarks, spatial frames of reference, geometricrelations, gestalt principles and different perspectives withcomputational and cognitive linguistic analysis, using different toolsfor annotating place names including geographic verification in textand maps and for cognitive-linguistic annotation of spatial relations. To achieve a generic semantic level for all annotations, we pursue thetransition to an ontology-based representation. Using the CIDOC CRMopens up a wide spectrum of interoperability and linking. This allowsa semantic interpretation of annotations such that we generateinstantiated CRM descriptions in RDF/OWL triple format, ready forpublication as Linked Open Data." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_247";"Poster";"Postersession";"N.N.";"Mapping the Moralized Geography of 'Paradise Lost': Prototypenbildung am Beispiel einer geo-kritischen Erschließung von Miltons Werk";"Marcel Schaeben";"Cologne Center for eHumanities, Universität zu Köln";"Deutschland";"Randa El Khatib";"Electronic Textual Cultures Lab University of Victoria";"Kanada";;;;;;;;;;;;;;;;;;;;;;;;;"Auf unserem Poster präsentieren wir den aktuellen Stand eines experimentellen Prototyps einer kartenbasierten Web-App, die zur Illustration sowie zur kritischen Interpretation der literarischen Geographie des 1667 erschienenen epischen Gedichts ""Paradise Lost"" von John Milton dienen soll. Milton erzählt darin die im biblischen Buch Genesis enthaltene Geschichte des Höllensturzes, der Versuchung von Adam und Eva und ihre Vertreibung aus dem Garten Eden. Er erwähnt darin zahlreiche biblische und nicht-biblische Orte, welche er mit literarischen Kommentaren und Anspielungen illustriert, die sich aus klassisch-mythologischen, biblischen sowie (Milton-)zeitgenössichen Quellen und Ansichten zu diesen Orten speisen. Die meisten Orte werden dadurch moralisch kontextualisiert und lassen eine positive oder negative Konnotation erkennen. Unser Prototyp soll den kern einer ""geo-kritischen"" Edition bilden, die die unterschiedlichen räumlichen und zeitlichen Dimensionen der literarischen Geographie Paradise Losts erstmals visuell explorativ zugänglich macht. Die Herausforderung einer übersichtlichen Visualisierung der unterschiedlichen Faktoren Miltons komplexer literarischer Geographie ist dabei zentrales Thema des Posters." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_248";"Poster";"Postersession";"N.N.";"Netzwerkanalyse für Historiker. Probleme und Lösungen am Beispiel eines Promotionsvorhabens";"Roberta Toscano";"Universität Stuttgart";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Die Werkzeuge der Digital Humanities können hilfreich sein, um die eigenen Daten zu strukturieren, unerwartete Zusammenhänge zu erkennen und Erkenntnisse hervorzubringen, die man ohne den Einsatz von digitalen Methoden nicht erlangt hätte. Im Bereich der historischen Netzwerkanalyse gibt es seit einigen Jahren neue interessante Entwicklungen. Während man sich anfangs noch an Werkzeugen aus der Sozialwissenschaft bediente, gibt es mittlerweile Software, die nicht nur statistische Ergebnisse ausgibt, sondern auch für historische Fragestellungen geeignet ist. Die Vorteile liegen auf der Hand: einerseits kann man komplexe Beziehungen, deren Reichweite und Auswirkungen ordnen und darstellen" "28.03.2019";"16:00";"19:00";"HZ1";"Poster_249";"Poster";"Postersession";"N.N.";"Augmentierte Notizbücher und Natürliche Interaktion – Unterstützung der Kulturtechnik Handschrift in einer digitalen Forschungswelt";"Florin Schwappach";"Universität Regensburg";"Deutschland";"Manuel Burghardt";"Universität Leipzig";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"In diesem Beitrag stellen wir ein laufendes Projekt vor, dass sich mit der Erweiterung analoger Notizbücher (Stift / Papier) um digitale Features, bspw. eine Volltextsuche oder eine Verlinkung unterschiedlicher Einträge, beschäftigt. Dabei steht eine intuitive und natürliche Interaktion im Vordergrund, die über Augmented Reality umgesetzt werden soll. Zusätzliche digitale Features werde so im analogen Notizbuch einfach überlagert. Die Interaktion erfolgt mit einem gewöhnlichen Stift, dessen Bewegung getrackt und automatisch erkannt wird. Mit diesem technischen Ansatz können einerseits Stiftgesten erkannt werden (bspw. um eine Verlinkung anzulegen). Andererseits kann so über die Stiftbewegung eine Handschriftenerkennung erfolgen, die eine automatische Digitalisierung der Notizen und damit bspw. eine Volltextsuche ermöglicht. Wir stellen in diesem Beitrag das Konzept augmentierter Notizbücher vor und berichten von ersten Erkenntnissen im Bereich der Erkennung von Stiftbewegungen mithilfe von Deep Learning-Verfahren." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_254";"Poster";"Postersession";"N.N.";"Semantische Minimal-Retrodigitalisierung von Brief-Editionen";"Klaus Rettinghaus";"Sächsische Akademie der Wissenschaften zu Leipzig";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Brief-Editionen sind ein unerlässliches Hilfsmittel für die Forschung. Doch um ihr volles Potential entfalten zu können, müssten sie leicht zugänglich sein. Dabei liegen die allermeisten Editionen ausschließlich in gedruckter Form vor, nur neuere Vorhaben publizieren wenigstens teilweise digital. Der Forscherin oder dem Forscher entgehen im Zweifelsfall wichtige Schriftzeugnisse, weil sie sie schlichtweg nicht finden.OCR-gestützte Retrodigitalisierung von Volltexten kritischer Editionen ist hier qualitativ zumeist noch nicht ausreichend. Erschwerend kommt hinzu, dass diese nicht-semantisch ist – und bei urheberrechtlich geschützten Werken in aller Regel völlig unmöglich.Das digitale Aufbereiten von Brief-Metadaten kann ein effektives Mittel sein die Zugänglichkeit von edierter Korrespondenz zu erhöhen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_255";"Poster";"Postersession";"N.N.";"Ein GUI-Topic-Modeling-Tool mit interaktiver Ergebnisdarstellung";"Severin Simmler";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Thorsten Vitt";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Steffen Pielström";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;;;;;;;"Der DARIAH-TopicsExplorer ist eine Software, mit der interessierte Forschende Topic Modeling auf ihren eigenen Rechnern an ihren eigenen Texten ausprobieren können, und die den gesamten Analyseprozesses, vom unverarbeiteten Text bis zum Ergebnis, durch eine graphische Nutzeroberfläche (GUI) unterstützt. Er wurde in einer ersten Version verschiedenen Gruppen von Forschenden und Studierenden vorgestellt. Die Erfahrungen und das Feedback aus diesen Workshops sind seither umfangreich in die Weiterentwicklung eingeflossen. Dabei heraus gekommen ist eine vollwertige Stand-Alone-Software, für gängige Windows-, MacOS- und Linux-Systeme, mit interaktiven Ergebnisvisualisierungen und einer Exportfunktion. Zur Zeit wird eine Version in grundlegend überarbeitetem Design vorbereitet, Grundlage ist ein neues Visualisierungskonzept, das es unter anderem erlaubt, neben den Analyseergebissen eines einzelnen Textes auch Vorschläge für inhaltlich besonders ähnliche Texte anzuzeigen. Wir hoffen, dass der TopicsExplorer mit den angestrebten Verbesserungen und Erweiterungen dazu beiträgt, den Kreis derjenigen zu erweitern, die diese weit Verbreitete Methode verwenden, verstehen und auch kritisch diskutieren können." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_257";"Poster";"Postersession";"N.N.";"Wie sich die Bilder gleichen. Bildähnlichkeitssuche in Drucken des 16. Jahrhunderts";"Germaine Götzelmann";"Karlsruher Institut für Technologie";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Die Menge an Buchdigitalisaten hat weltweit längst eine kritische Masse erreicht, die rein manuelle Auswertungen unmöglich macht. Dieser Umstand macht zwingend erforderlich, daneben automatische, quantitative Auswertungsmethoden zu etablieren. Bildähnlichkeitssuchen können dabei eine Möglichkeit darstellen, Buchillustrationen in großen Korpora zu durch- und zu untersuchen. Die Posterpräsentation stellt einen im Rahmen eines Promotionsprojekts entwickelten Workflow zur Bildsuche in Buchdigitalisaten vor." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_262";"Poster";"Postersession";"N.N.";"10 Jahre IDE-Schools – Erfahrungen und Entwicklungen in der außeruniversitären DH-Ausbildung";"Christiane Fritze";"Institut für Dokumentologie und Editorik (IDE)/ Österreichische Nationalbibliothek";"Österreich";"Franz Fischer";"Institut für Dokumentologie und Editorik (IDE) / Universität zu Köln";"Deutschland";"Georg Vogeler";"Institut für Dokumentologie und Editorik (IDE) / Karl-Franzens-Universität Graz";"Österreich";"Markus Schnöpf";"Institut für Dokumentologie und Editorik (IDE) / Berlin-Brandenburgische Akademie der Wissenschaften";"Deutschland";"Martina Scholger";"Institut für Dokumentologie und Editorik (IDE) / Karl-Franzens-Universität Graz";"Österreich";"Patrick Sahle";"Institut für Dokumentologie und Editorik (IDE) / Universität zu Köln";"Deutschland";;;;;;;;;;;;;"Das Poster analysiert die Erfahrungen aus zehn Jahren Durchführung von Schools zur Digitalen Edition. Es stellt das Konzept der Kurse des Instituts für Dokumentologie und Editorik (IDE) vor, wertet die TeilnehmerInnenlisten disziplinär und in Bezug auf die weitere Laufbahn aus, berichtet von einer Umfrage unter den ehemaligen TeilnehmerInnen und situiert die Veranstaltungen und ihre Lehrgegenstände im Gesamtangebot von DH-Lehre und im Feld der digitalen (und nicht-digitalen) Editionswissenschaft und Editionspraxis. Das Poster vergleicht die IDE-Schools mit thematisch benachbarten Veranstaltungen, analysiert Trends und Konstanten der curricularen Struktur, erhebt statistische Angaben über die BesucherInnen, präsentiert die Sicht der TeilnehmerInnen durch die Auswertung einer umfassenden Befragung und verortet das Angebot im Gesamtfeld der digitalen Editorik bzw. der Digital Humanities im Allgemeinen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_276";"Poster";"Postersession";"N.N.";"Dependenzbasierte syntaktische Komplexitätsmaße";"Thomas Proisl";"Friedrich-Alexander-Universität Erlangen-Nürnberg";"Deutschland";"Leonard Konle";"Julius-Maximilians-Universität Würzburg";"Deutschland";"Stefan Evert";"Friedrich-Alexander-Universität Erlangen-Nürnberg";"Deutschland";"Fotis Jannidis";"Julius-Maximilians-Universität Würzburg";"Deutschland";;;;;;;;;;;;;;;;;;;"Wir evaluieren dependenzbasierte Maße für die syntaktische Komplexität von (literarischen) Texten auf einem Korpus von knapp 1.000 Romanen. Bei etwa 85% der Texte handelt es sich um Heftromane, bei den restlichen 15% um Hochliteratur. Während wir zwischen Hoch- und Schemaliteratur insgesamt keine signifikanten Unterschiede hinsichtlich der syntaktischen Komplexität feststellen können, zeigen sich zwischen den einzelnen Unterkategorien der Schemaliteratur teils signifikante Unterschiede. Es zeigt sich, dass einige Maße nahezu perfekt miteinander korrelieren. Außerdem korrelieren alle untersuchten Maße recht robust mit der durchschnittlichen Satzlänge, wobei sie sich aber doch ausreichend stark von ihr zu unterscheiden scheinen, um den Mehraufwand der syntaktischen Analyse zu rechtfertigen." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_278";"Poster";"Postersession";"N.N.";"Forschung öffnen: Möglichkeiten, Potentiale und Grenzen von Open Science am Beispiel der offenen Datenbank “Handke: in Zungen”";"Vanessa Hannesschläger";"Österreichische Akademie der Wissenschaften";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"In diesem Vortrag werden die Möglichkeiten und Grenzen der Öffnung eines Forschungsprojekts für andere Forschende, aber auch für die interessierte Öffentlichkeit dargestellt. Das Open Science-Projekt ""Handke: in Zungen"" dient dabei als Beispiel, anhand dessen verschiedene Aspekte der ""Öffnung"" von Wissenschaft diskutiert werden. Neben einer kurzen Vorstellung des Projekts widmet sich der Beitrag den darin angewandten Methoden der Offenen Wissenschaft, aber auch den Anforderungen, die diese mit sich bringen sowie der Frage danach, wie und wozu Offene Wissenschaft konsequent umgesetzt werden kann." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_281";"Poster";"Postersession";"N.N.";"Annotation gesprochener Daten mit WebAnno-MM";"Hanna Hedeland";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";"Steffen Remus";" Language Technology Group Universität Hamburg";"Deutschland";"Anne Ferger";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";"Kristin Bührig";"Hamburger Zentrum für Sprachkorpora Universität Hamburg";"Deutschland";"Chris Biemann";"Language Technology Group Universität Hamburg";"Deutschland";;;;;;;;;;;;;;;;"Da die Basisversion der populären web-basierten Annotationsplattform WebAnno gesprochene Daten nicht unterstützt, wurde im Rahmen eines Projekts zur Erarbeitung und Erprobung innovativer Lehrmethoden das Plugin WebAnno-MM als Erweiterung entwickelt. Das Plugin bietet die Möglichkeit, sowohl alignierte Mediendateien abzuspielen, als auch die Transkriptionsdaten nach bestimmten Konventionen und dem vorgesehenen Layout für die qualitative Analyse zu visualisieren. Dabei stehen bewährte Funktionalitäten wie die elaborierte Nutzerverwaltung und die Möglichkeiten zur Auswertung von Inter- und Intra-Annotator-Agreement bei den verschiedenen Arten von unterstützten Annotationen weiterhin zur Verfügung. Durch ein Open-Source-Projekt wie WebAnno wird nicht nur der Einsatz der Lehrmethode und der neuen WebAnno-Version in verschiedenen Kontexten ermöglicht, sondern auch die Ergänzung und Weiterentwicklung zusätzlicher Funktionalitäten für ähnliche Vorhaben. In Hinblick auf Interoperabilität und Nachhaltigkeit der Lösung wurde dementsprechend der auf den TEI-Richtlinien basierende ISO-Standard „Transcription of Spoken Language“ als Grundlage gewählt." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_283";"Poster";"Postersession";"N.N.";"Gutenberg Biographics - der Mainzer Professorenkatalog";"Donata Gerhards";"Johannes Gutenberg-Universität Mainz";"Deutschland";"Frank Hüther";"Universitätsarchiv Mainz Johannes Gutenberg-Universität Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Gutenberg Biographics ist ein webbasiertes System zur schwerpunktmäßigen Erfassung und Präsentation der Biographien von Mainzer Gelehrten in der Zeit von 1477-1798/1802 und seit der Wiedergründung der Johannes Gutenberg-Universität 1946 bis in die Gegenwart. Die Biographien der einzelnen Gelehrten werden als Summe ihrer Ereignisse erfasst, sodass ein Zugang sowohl über die Person selbst als auch über die Ereignisse ermöglicht wird. Hierbei werden die Informationen zusätzlich mit bibliographischen Normdaten verknüpft. Bis auf die verwendeten Fotografien stehen alle Daten unter einer CC-BY Lizenz. Über verschiedene Schnittstellen und Austauschformate und unter Berücksichtigung der FAIR-Prinzipien werden so Forschungsdaten in strukturierter Form für eine weitere Verwendung bereitgestellt. Gutenberg Biographics versteht sich als work in progress Projekt. Bisher konnten die Biographien von über 550 Professoren der Mainzer Universität auf http://gutenberg-biographics.ub.uni-mainz.de/home.html veröffentlicht werden. Weitere 200 Gelehrtenbiographien der frühen Mainzer Universität können zum Jahreswechsel freigegeben werden. Der Datenbestand wird laufend bearbeitet und ergänzt." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_284";"Poster";"Postersession";"N.N.";"Digitales Publizieren im Spiegel der Zeitschrift für digitale Geisteswissenschaften - ZfdG: Eine Standortbestimmung";"Henrike Fricke-Steyer";"Forschungsverbund Marbach Weimar Wolfenbüttel/ Herzog August Bibliothek Wolfenbüttel";" Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Die Einreichung möchte anhand der im e-journal “Zeitschrift für digitale Geisteswissenschaften - ZfdG” erschienenen Beiträge eine Standortbestimmung des digitalen Publizierens vornehmen. Dazu werden die Metadaten der Artikel und die Texte selber quantitativ analysiert aber auch andere Informationen, wie z. B. Zugriffzahlen ausgewertet. Ziel ist es, zu zentralen Aspekten des Digitales Publizierens eine Standortbestimmung auf dem Poster zu visualisieren, wie beispielsweise die fachliche Verteilung, die Einbindung multimedialier Inhalte, die Autorschaften oder das gewählte Reviewverfahren." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_290";"Poster";"Postersession";"N.N.";"Multimediale Modelle multimodaler Kommunikation";"Daniel Schüller";"Rheinisch-Westfälische Technische Hochschule Aachen";"Deutschland";"Irene Mittelberg";"Rheinisch-Westfälische Technische Hochschule Aachen";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Posterpräsentation zum Forschunsgprozess der digitalen, motion-capture-gestützten Gestenforschung." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_292";"Poster";"Postersession";"N.N.";"Bildbezogenes Machine Learning anhand der Glasmalereien des Corpus Vitrearum Medii Aevi";"Lisa Kolodzie";"Akademie der Wissenschaften und der Literatur | Mainz";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;;;;"Ziel der Arbeit ist ein Vergleich unterschiedlicher Techniken mittels Clustering aus den Bereichen Machine Learning und Computer Vision anhand von Farbwerten mittelalterlicher Glasmalereien." "28.03.2019";"16:00";"19:00";"HZ1";"Poster_293";"Poster";"Postersession";"N.N.";"Multimedia Markup Editor (M3): Semi-Automatische Annotationssoftware für statische Bild-Text Medien";"Oliver Moisich";"Universität Paderborn";"Deutschland";"Rita Hartel";"Universität Paderborn";"Deutschland";;;;;;;;;;;;;;;;;;;;;;;;;"Dieses Poster stellt ein Annotationssystem für graphische Narrative vor. Mittels einer auf Java basierten graphischen Oberfläche sind Annotator_innen in der Lage, graphische Narrative und andere statische Bild/Text-Medien in XML zu annotieren. Grundlage für die hier verwendete XML-basierte Annotationssprache, „Graphic Novel Markup Language“, kurz GNML, ist die von John Walsh entwickelte, auf TEI basierende, „Comic Book Markup Language“, kurz CBML.Das System ermöglicht Annotator_innen die Annotation verbaler und visueller Repräsentation auf der Comicseite"