DINI e.V.
DINI e.V.
               

DINI / Veranstaltungen / Jahrestagungen / 2015 / Abstracts

Creating and reusing semantic annotations with Pundit

Giulio Andreini (Net7 Pisa)

This talk will introduce the concept of semantic annotation and its connection to the Linked Data paradigm. During the talk the annotation tool Pundit will be presented and used to practically demonstrate applications in collaborative data curation of online digital collections. Please visit thepund.it to get ready to play with Pundit.

Giulio Andreini is a project manager and web designer working at Net7 in Pisa since 2012. From 2000 to 2012 he worked as a freelance and gained experience in web design companies like Perfect and Studio FLU. In the last year he was put in charge of the project management of Pundit and he is also taking care of user interface and experience design of the project.

 

Allheilmittel oder Basis-Technologie - Was ist dran an Linked Data?

Sören Auer (Universität Bonn, Fraunhofer IAIS)

Linked Data hat in den letzten Jahren an Popularität gewonnen, steht aber stark im Schatten der Big Data Welle. Während semantische Datenvernetzung in einigen Anwendungsdomänen wie z.B. digitale Bibliotheken oder Lebenswissenschaften bereits fest verankert ist, haben andere wichtige Domänen wie Industrie 4.0, Enterprise IT-Architektur und Integration oder Research Data in dieser Beziehung noch großen Nachholbedarf. In diesem Vortrag diskutieren wir den aktuellen Stand der Linked Data Initiative, das Spannungsfeld zwischen Linked Data, Open Data und Big Data und analysieren Herausforderungen an Forschung und Technik um Linked Data weiter zu popularisieren.

Prof. Dr. Sören Auer leitet die Enterprise Information Systems Forschungsgruppe an der Universität Bonn und ist Mitglied der Führungsrunde des Fraunhofer Instituts für Intelligente Analyse- und Informationssysteme. Seine Forschungsinteressen reichen von Wissensrepräsentation, Datenintegration über agile Methodologien und Crowsourcing bis hin zu Anwendungsdomänen wie Smart Cities, Industrie 4.0 und Open Data & Science. Er ist Mitbegründer einer Reihe zentraler Forschungs- und Communityprojekte (u.a. DBpedia, LinkedGeoData, OntoWiki), Koordinator des H2020 Projekts BigDataEurope, leitet das Steering-Komitee des European Data Forums und dient dem Beirat der Open Knowledge Foundation.

 

 

Global Agricultural Concept Scheme: the collaborative integration of three thesauri

Tom Baker (Sungkyunkwan University, Korea)

The Food and Agricultural Organization of the United Nations (FAO), CAB International (CABI), and the USDA National Agricultural Library (NAL), maintainers of three large thesauri of agricultural terminology that largely overlap in scope, have partnered to create a shared Global Agricultural Concept Scheme (GACS).  Duplication of effort has proven to be both inefficient and a barrier to users wishing to search across databases indexed with their terms. Expressing AGROVOC, CAB Thesaurus, and NAL Thesaurus in RDF and SKOS, as Linked Data, facilitates mappings, but mappings among three large, continually moving targets are difficult to maintain. Starting with algorithmically generated mappings among three sets of the terms most frequently used to index the AGRICOLA, CAB Abstracts, and AGRIS databases, thesaurus managers in the GACS Working Group have manually vetted the mappings for quality and are currently correcting logical inconsistencies.  In a final iteration, these mappings will be used to generate a Global Agricultural Concept Scheme with its own identifiers, and GACS will be moved into its own distributed editorial environment and jointly maintained by the three partners. Targeted for beta release in early 2016, GACS aggregates the complementary strengths of its sources, such as expertise in particular areas and labels in twenty languages.  Formulating consistent policies for GACS on issues such as scientific versus common names for organisms requires balancing scientific, commercial, educational, and mass-market perspectives.  The challenge of global food security under conditions of climate change will require the integration of data at all levels.  GACS can serve as a focal point in the broader ecosystem of vocabularies, code lists, database schemas, ontologies, statistical indicators, and taxonomies required to drive agricultural research and innovation.

[Der Vortrag wird auf Deutsch gehalten]

Thomas Baker is an Associate Professor at Sungkyunkwan University, Seoul, Korea. He also works as CIO of the Dublin Core Metadata Initiative, where he co-chairs the Technical Board and Usage Committee, and as a consultant in Semantic Web projects, notably LD4PE (about professional education about Linked Data) and GACS, a joint initiative of the Food and Agricultural Organization of the UN, CAB International, and the USDA National Agricultural Library to create a Global Agricultural Concept Scheme. He has served as chair of the W3C Semantic Web Deployment Working Group, W3C Library Linked Data Incubator Group, and as a member of the W3C Semantic Web Coordination Group (currently the W3C Data Activity Coordination Group).  He has worked at the Goettingen State Library (Germany), Fraunhofer Society, German National Research Center for Informatics (GMD), and the Asian Institute of Technology in Bangkok.

 

 

Bridging the gap - Der Kultur-Hackathon Coding da Vinci

Stephan Bartholmei (Deutsche Nationalbibliothek Frankfurt Main/Deutsche Digitale Bibliothek)

Open Data macht frei und mobil! Was passiert, wenn die durch Digitalisierung und Lizensierung flügge gewordenen Kulturschätze die Archive, Bibliotheken und Museen verlassen? Kann die Zivilgesellschaft mit den Metadaten und Digitalisaten in der Form, wie sie heute von  Kultureinrichtungen und Aggregationsprojekten angeboten werden, etwas anfangen? Können Open Data und Creative Re-Use einen Strukturwandel in den Einrichtungen bewirken? Diesen und weiteren Fragen sind wir unter Laborbedingungen nachgegangen. Das Labor war der erste deutsche Kultur-Hackathon <a href= "http://codingdavinci.de">„Coding da Vinci”</a> den wir, die Deutsche Digitale Bibliothek, die Open Knowledge Foundation Deutschland, die Servicestelle Digitalisierung und Wikimedia Deutschland gemeinsam in den Jahren 2014 und 2015 veranstaltet haben.
Bei Coding da Vinci 2015 haben ca. 150 „Hacker”, also Programmiererinnen, Designer und Maker, mit 53 Datensets von 33 teilnehmenden Kultureinrichtungen gearbeitet. Vollendet wurden im Wettbewerb und begleitenden Veranstaltungen an Berliner Universitäten 28 Projekte von beeindruckender Kreativität und technischer Reife.
Anhand einer Auswahl dieser Projekte werden das Veranstaltungsformat, die entstandenen Arbeiten, die Effekte auf teilnehmende Institutionen sowie die aus Engagement und Feedback der Hackathon-Teilnehmer ablesbaren Anforderungen an die Qualität und Bereitstellung der Daten vorgestellt. Der Vortrag schließt mit einer Betrachtung der Frage, wie der bei Coding da Vinci formatbedingt nur vorübergehend realisierbare Brückenschlag zur netz- und technikaffinen Zivilgesellschaft dauerhaft gelingen kann und welche Veränderungen dafür in den Kultureinrichtungen und bei Coding da Vinci selbst notwendig sind.
Stephan Bartholmei ist seit 2013 in der Projektkoordination der Deutschen Digitalen Bibliothek an der Deutschen Nationalbibliothek in Frankfurt am Main beschäftigt. Dort ist er für  Produktentwicklung und Innovation verantwortlich. Als Physiker war er zuvor in Forschung und Lehre, in der Software-Entwicklung und im Gewerblichen Rechtsschutz tätig.

 

 

Linked Data und Repositorien

Pascal-Nicolas Becker (Technische Universität Berlin)

Repositorien bieten ihre Inhalte hauptsächlich über Weboberflächen an, die auf die menschliche Wahrnehmung ausgerichtet sind. Die gespeicherten Daten stellen sie allenfalls über eine OAI-PMH-Schnittstelle bereit, die zwar im Umfeld von Repositorien ein „de-facto-Standard“, darüber hinaus jedoch kaum bekannt ist. Inzwischen bietet Linked Data die erforderlichen Grundlagen für einen generischen Export von quasi beliebigen Daten an. Für Daten, die als Linked Data publiziert werden sollen, werden Metadaten oft erst aufwändig manuell erfasst oder automatisch generiert. Repositorien enthalten bereits Metadaten zu den gespeicherten digitalen Objekten. Die Inhalte von Repositorien eignen sich daher besonders gut für die Publikation als Linked Data.

Im Bereich von Repositorien ist Linked Data noch ein relativ neues Thema. Die Ende 2014 erschienene Version 4 von Fedora und die im Januar 2015 erschienene Version 5 von DSpace unterstützt erstmals die Bereitstellung der gespeicherten Inhalte als Linked Data. Am Beispiel von DSpace soll die Einbindung einer für das Bibliotheksumfeld typischen Applikation in das Semantic Web diskutiert werden. Wie ist zum Beispiel mit Persistent Identifiern umzugehen, wie können Metadaten in Linked Data transformiert werden und welche Bedeutung hat diese Entwicklung für Administratorinnen und Administratoren von Repositorien?

Pascal-Nicolas Becker ist Informatiker, Mitarbeiter der Universitätsbibliothek der Technischen Universität Berlin und zuständig für das Repositorium DepositOnce. Als aktiver Entwickler wurde er in die DSpace Committers Group aufgenommen, die die Entwicklung und Pflege von DSpace verantwortet. Unter anderem entwickelte er die Bereitstellung der in DSpace gespeicherten Daten als Linked Data und damit die Einbindung von DSpace in das Semantic Web.

 

 

Entity Facts-Ein leichtgewichtiger Normdatendienst auf Basis der GND

Michael Büchner (Deutsche Nationalbibliothek Frankfurt/M.), Sarah Hartmann (Deutsche Nationalbibliothek Frankfurt/M.)

Die Deutsche Nationalbibliothek (DNB) hat den Dienst Entity Facts zur Verfügung gestellt, dessen Ziel es ist, Informationen zu einer Entität aus der Gemeinsamen Normdatei (GND) mit anderen Datenquellen zu vereinigen und zu verknüpfen. Die Daten aus Entity Facts sollen ohne großen Aufwand in andere Anwendungen integriert werden können. Die erste Version umfasst und liefert Informationen zur GND-Entität „Person“ über eine JSON-REST-API. Erste Anwenderin ist die Deutsche Digitale Bibliothek (DDB), die Personenseiten auf Basis von Entity Facts anbietet.

In diesem Beitrag werden zunächst die grundlegenden Ziele und Funktionen des Entity-Facts-Service der DNB erläutert sowie auf die Architektur des Service eingegangen. Am Beispiel der DDB wird erläutert wie der Service genutzt werden kann und die angebotenen Daten auf einfachste Weise in eigene Anwendungen übernommen werden können. Darüber hinaus wird ein Ausblick gegeben, wie der Dienst weiterentwickelt werden soll. 

Michael Büchner studierte Angewandte Informatik und Bibliotheks- und Informationswissenschaften in Jena, Erfurt und Leipzig. Seit Juni 2013 ist er Mitarbeiter der Deutschen Nationalbibliothek (DNB) und im Koordinationsteam der Deutschen Digitalen Bibliothek (DDB) tätig. Dort entwickelt und evaluiert er die IT-Technologien im Zusammenhang mit der DDB, Persistente Identifikatoren und Normdaten. Am DNB-Projekt Entity Facts arbeitete er als Entwickler mit. 

Sarah Hartmann ist Diplom-Bibliothekarin an der Deutsche Nationalbibliothek (DNB), tätig in der Arbeitsstelle für Standardisierung. Seit Mai 2013 arbeitet sie im Team, das für die Gemeinsame Normdatei (GND) verantwortlich ist. Sie ist Projektleiterin für das DNB-Projekt Entity Facts.

 

Linked Open Data bei und von Springer: eine erste Bestandsaufnahme

Kai Eckert (Hochschule der Medien Stuttgart), Markus Kaindl (Springer-Verlag GmbH Heidelberg)

Im März 2015 hat der Springer-Verlag zunächst als Pilotprojekt einen eigenen Linked Open Data Service vorgestellt. Unter lod.springer.com werden derzeit Daten zu Konferenzen angeboten, die neben dem Namen und dem Ort der Konferenz zum Beispiel auch Informationen zur Besetzung des Programmkommittees enthalten. Die Daten enthalten selbstverständlich auch Links zu den bei Springer veröffentlichten Proceedings und dienen so als Anreicherung der unter SpringerLink vorhandenen Metadaten. Dabei ist zum Beispiel schon die Verknüpfung der Proceedings über die Konferenz zu den übergeordneten Konferenzserien sehr wertvoll und in vielen Fällen keineswegs trivial direkt aus dem Titel der Proceedings abzuleiten. In diesem Vortrag wird der Linked Open Data Piloten vorgestellt und gezeigt, wie er sich in die Strategie "Metadata as gateway to our content" von Springer eingliedern lässt. Dabei werden die Ziele beleuchtet, die sich Springer gesteckt hat, welche Abteilungen und externen Partner mitgewirkt haben und welche Erwartungen an das Projekt bestanden. Welche Rolle der Pilot im Produktivbetrieb übernimmt ist natürlich besonders im aktuellen Zusammenschluss von Springer und Palgrave Macmillan zu SpringerNature besonders interessant. Darüber hinaus wird kurz die technische Umsetzung beschrieben und auf die wesentlichen Herausforderungen eingegangen, die sich dabei ergeben haben. Den Abschluß bildet ein Ausblick auf die aktuellen und geplanten Erweiterungen, der als Diskussionsgrundlage dienen soll, um Fragen zur Rolle von Verlagen in einer vernetzten Metadatenlandschaft, der Rolle von Linked Open Data für die Geschäftsmodelle der Verlage, aber auch die Möglichkeiten und Grenzen von Linked Open Data generell zu beleuchten.

Prof. Dr. Kai Eckert hat die Professur für Web-basierte Informationsdienstleistungen an der Hochschule der Medien Stuttgart inne. Er promovierte 2012 an der Universität Mannheim mit einer Arbeit zur nutzungsgetriebenen Pflege von Wissensorganisationssystemen. Von Oktober 2012 bis zu seinem Ruf an die HdM im März 2015 war Herr Eckert Wissenschaftler in der Research Group Data and Web Science (DWS) der Universität Mannheim und leitete das Arbeitspaket zur Infrastrukturentwicklung im EU-geförderten Projekt Digitized Manuscripts to Europeana (DM2E). Von 2010 bis 2012 arbeitete Herr Eckert für die Universitätsbibliothek Mannheim als Fachreferent und stellvertretender Leiter der Abteilung Digitale Bibliotheksdienste. Dort hat er den Linked Data Service der Bibliothek entwickelt, die erste Veröffentlichung eines Bibliothekskatalogs als Linked Data in Deutschland. Für den Heidelberger Springer-Verlag hat Herr Eckert maßgeblich zur Konzeption und Entwicklung des Linked Open Data Auftritts beigetragen, der im März 2015 als Linked Open Data Pilot erstmalig öffentlich vorgestellt wurde.

Markus Kaindl (M.A.) studierte Computerlinguistik an der Ludwig-Maximilians-Universität in München. Nach seinem Abschluss 2010 arbeitete er zunächst als Programmierer am Digitalisierungszentrum der Bayerischen Staatsbibliothek (BSB) in München. Dort übernahm Herr Kaindl den strukturellen Neuaufbau sowie die funktionelle und inhaltliche Erweiterung der zentralen Ortsdatenbank. Überdies entwickelte er eine Komponente zur Eigennamen-Erkennung als Teil der Lucene-Solr-Indexierungspipeline von OCR-Volltexten. Seit März 2013 arbeitet Herr Kaindl für den Heidelberger Springer-Verlag als Data Manager. Neben der Datenkonsolidierung für das Springer Book Archive (Retrodigitalisierung von 110.000 Büchern) beschäftigt er sich hauptsächlich mit Datenanreicherung in verschiedenen Bereichen, beispielsweise mit der automatischen Eigennamenerkennung und der Dokumentklassifikation. Darüber hinaus war Herr Kaindl als Projektmanager für den Linked Open Data Auftritt der Computer Science Konferenz-Proceedings verantwortlich.  

 

Spotlight: "Linked Data in der Archäologie: in and out of moonshadow"

Reinhard Förtsch (Deutsches Archäologisches Institut Berlin)

Anhand von konkreten Anwendungsbeispielen der idai.welt (Hellespont, idai.gazetteer, Syrian Heritage Archive Project) sowie darüber hinaus (AFE, Open Context) werden Tendenzen des Umganges mit den Vorteilen wie auch mit den Problemen von Linked Data beschrieben. Dies betrifft logischerweise Fragen der Informationsstrukturierung. Beginnend mit einem Ausblick in die Welt des »how not to« wird das Problem von mit großem Hype auf Github hochgeladenen Linked Data Paketen betrachtet, deren Beisetzung gerne damit kaschiert wird, nun sei man endlich einen Schritt über monolithische Anwendungen hinausgekommen. Die Frage ist, wieviel damit gewonnen ist, muss man doch in Anwendungen, welche Linked Data für die Archäologien in sichtbarer Form präsentieren, einen nicht unerheblichen Teil der Monolithik wieder neu generieren.Prioritär für die Archäologien ist hier die Kontextualisierung, für die Linked Data  in einigen Fällen (Geodaten) zum ersten Mal das Versprechen der »ungeplanten« Kontextualisierung durch die Verwendung derselben Hubs hat real werden lassen. Dies Versprechen steht natürlich in ähnlicher Form für die Verwendung derselben semantischen Modelle im Raum, nur ist es dabei viel seltener und in viel geringerem Umfang wahr geworden. Ebenfalls hohe Priorität hat die Semantik von Daten. Hier ist zu beobachten ist, dass die Repräsentation von nicht selber erstellten Fremddaten, also neben der Publikation vor allem auch die Nachnutzung, in zunehmendem Maße nicht mehr durch den Bezug auf mehr oder weniger verbreitete oder gern verbreitet sein wollende semantische Modelle erfolgt. Vielmehr werden zu integrierende Datenbestände immer häufiger, etwa über SKOS, auf verbreitete Linked Data Vokabulare bezogen. Die Frage ist auch hier, inwieweit man, der Starrheit und dem Overkill von vorgegebenen semantischen Modellen entfliehend, derzeit nicht neue Komplexitätsexplosionen zu erleben beginnt, die das anfängliche Versprechen leichtgewichtiger Strukturen in der Linked Data Welt nicht zunehmend ablöst, zulasten auch noch größerer semantischer Unübersichtlichkeiten.

Prof. Dr. Reinhard Förtsch ist Wissenschaftlicher Direktor für Informationstechnologien am Deutschen Archäologischen Institut (DAI) in Berlin. Sein zentrales Projekt ist dort der Aufbau und die Weiterentwicklung der idai-welt, der webbasierten digitalen Forschungsumgebung des DAI, darunter der archäologischen Objektdatenbank Arachne. Förtsch lehrt außerdem als außerplanmäßiger Professor an der Universität Köln. Nach seiner Promotion an der Universität Göttingen 1989 wurde Reinhard Förtsch Hochschulassistent am Archäologischen Institut der Universität zu Köln, wo er sich 1994 auch habilitierte. Seit 1996 leitete er das Forschungsarchiv für Antike Plastik an der Universität zu Köln, 2010 umbenannt in Kölner Arbeitsstelle für Digitale Archäologie/CoDArchLab. Reinhard Förtsch wurde 2001 mit dem Offermann-Hergarten Preis der Universität zu Köln ausgezeichnet.

 

Forschungsinformationssysteme, ORCID, VIVO mit Linked Open Data  - warum für die Landschaft der Forschungsinformationen nichts davon verzichtbar ist und was uns noch fehlt

Lambert Heller (Technische Informationsbibliothek Hannover)

Forschungsinformationssysteme, ORCID, VIVO mit Linked Open Data – warum für die Landschaft der Forschungsinformationen nichts davon verzichtbar ist, und was uns noch fehlt.

Forschungsinformationssysteme (FIS) wie Pure oder Converis sind spätestens seit dem Kerndatensatz Forschung auch in Deutschland ein vieldiskutiertes Thema geworden. Die „Inventarisierung“ der Forscher und ihrer Aktivitäten, die jeweils an den Forschungseinrichtungen mittels FIS vorgenommen wird, hat in übergreifenden Standards wie ORCID, CASRAI und (national) dem Kerndatensatz eine wichtige Ergänzung gefunden. Mit der freien Software VIVO und einigen von VIVO geprägten LOD-Ontologien gibt es nun auch eine Komponente, mit der öffentliche Forschungsinformationen suchmaschinenfreundlich im Web gezeigt und in ein semantisches Netzwerk integriert werden können. Obwohl diese Aufzählung (FIS, ORCID, Kerndatensatz, VIVO) vielleicht redundant klingt, ist keine dieser Komponenten wirklich verzichtbar. Im Gegenteil, es fehlt sogar noch etwas. Was das ist, und welche Erfahrungen im deutschsprachigen Raum bisher speziell mit VIVO gemacht worden sind, behandelt dieser Vortrag.

Lambert Heller (@Lambo bei Twitter) ist Sozialwissenschaftler und wissenschaftlicher Bibliothekar. Seit 2013 leitet er das Open Science Lab der TIB Hannover, das u.a. durch die Entwicklung von Prototypen, Publikationen und Workshops den VIVO-Ansatz in Deutschland bekannter gemacht hat.

 

 

(Linked)-Open-Science-Workflows für die Offenlegung von Publikationsgebühren

Najko Jahn (Universitätsbibliothek Bielefeld)

Der Vortrag behandelt die Frage, wie sich Kosten des gebührenfinanzierten Open Access dokumentieren lassen. Zu diesem Zwecke wird die Initiative OpenAPC vorgestellt, die im vergangenen Jahr unter Beteiligung der DINI AG Elektronisches Publizieren entstanden ist. Sie hat sich zum Ziel gesetzt, zur Preistransparenz des öffentlich finanzierten Open Access beizutragen, indem wissenschaftliche Einrichtungen über einen gemeinsamen Datenservice ihre Kosteninformationen als Open Data verfügbar machen.

Der Vortrag stellt den Workflow, der etablierte Verfahren aus der Open-Science-Community aufgreift, sowie Auswertungen auf Basis des Datensatzes vor. Mit derzeit 3.515 Artikeln, die 27 Einrichtungen im Umfang von 4.345.486 € finanziert haben, lassen sich erstmalig Zahlungsströme zwischen Verlagen und wissenschaftlichen Einrichtungen in Deutschland transparent darlegen. Abschließend werden im Vortrag Möglichkeiten der Einbindung von Linked Data Technologien erörtert.

Najko Jahn hat Bibliothekswissenschaft und Philosophie an der Humboldt-Universität zu Berlin und der University of Nottingham studiert. Er ist als Referent für Projektkoordination und Innovationsmanagement an der Universitätsbibliothek Bielefeld tätig.

 

Wikidata, die freie Wissensbasis von Wikipedia

Markus Krötzsch (Technische Universität Dresden)

Wikidata ist die freie Wissensbasis von Wikipedia und damit eine der größten frei verfügbaren Datensammlungen, die heutzutage von Menschen erstellt werden. Einzigartig ist dabei die internationale Community zehntausender Editoren, welche dieselben Inhalte in bis zu 400 verschiedenen Sprachen bearbeiten. Entitäten und Daten in Wikidata sind dabei sprachunabhängig (im Gegensatz z.B. zu den Artikeln in Wikipedia). Dass es gelingen kann auch über Sprachgrenzen hinweg die Bedeutung von Entitäten klar zu definieren, liegt vor allem an der großen Menge an Verweisen auf nationale und internationale Normdateien, Kataloge, Datenbanken und natürlich auf Wikipedia. Tatsächlich spielt Wikidata eine wichtige Rolle bei der Integration der verschiedenen Sprachausgaben von Wikipedia untereinander, aber auch mit externen Datensammlungen. Dies steigert die Qualität der Inhalte, die nunmehr mit verschiedenen Quellen abgeglichen werden können, und unterstützt zudem Wikidatas Ziel, jedem einzelnen Fakt mindestens eine primäre Quelle zuzuordnen. Der Vortrag gibt einen kurzen Überblick über Wikidata und speziell über die dort relevanten Aspekte der Informationsintegration und Datenorganisation.

Dr. Markus Krötzsch ist Emmy-Noether-Forschungsgruppenleiter an der Fakutlät Informatik der TU Dresden. Zuvor promovierte er 2010 am Karlsruhe Institut für Technologie (KIT) und arbeitete im Anschluss bis 2013 als Forscher und Departmental Lecturer an der University of Oxford. Er spielt eine zentrale Rolle bei der Konzeption und Umsetzung der freien Wissensbasis Wikidata, ist einer der Herausgeber des W3C Standards für die Web Ontology Language OWL 2 sowie Koautor mehrere Lehrbücher zu semantischen Technologien, von denen eines von der American Library Association als Outstanding Academic Title ausgezeichnet wurde. Seine Forschungsbeiträge im Bereich Wissensrepräsentation und Künstliche Intelligenz wurden in zahlreichen hochrangigen Konferenzen und Zeitschriften veröffentlicht.

 

 

DARIAH-DE Geo-Browser – Raum-Zeit-Visualisierung von Forschungsdaten

Beata Mache (Steinheim-Institut für deutsch-jüdische Geschichte), Stefan Funk (Niedersächsische Staats- und Universitätsbibliothek Göttingen)

Um die Methoden und Verfahren der Digital Humanities mit Gewinn in geisteswissenschaftliche Forschungsprozesse einzubinden, bedarf es entsprechender Tools und Dienste. DARIAH-DE entwickelt und stellt solche fachwissenschaftliche Dienste bereit. Mit so aufbereiteten und analysierten Daten können neue Forschungsfrage gestellt, beantwortet und präsentiert werden. Der DARIAH-DE Geo-Browser ermöglicht eine vergleichende Visualisierung mehrerer Anfragen und unterstützt die Darstellung von Daten und deren Visualisierung in einer Korrelation von geographischen Raumverhältnissen zu entsprechenden Zeitpunkten und -abläufen. Der Vortrag zeigt das Tool aus geisteswissenschaftlicher und aus Entwicklerperspektive. Am Beispiel der Edition und Erschließung der „Unparteiischen-Universalkirchenzeitung“ (1837) erläutert Beata Mache, die vielfältige Fragestellungen und – teilweise überraschende – Erkenntnisse, die mithilfe des Geo-Browsers möglich sind. Einige technische Aspekte von Datasheet Editor und Geo-Browser, deren Einbindung in DARIAH-DE sowie die geschichtliche Entwicklung von E4D zum DARIAH-DE Geo-Browser werden von Stefan E. Funk erläutert.

Dr. Beata Mache ist wissenschaftliche Mitarbeiterin im Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte an der Universität Duisburg-Essen. Sie leitet die Institutsbibliothek und gehört zur Redaktion der Quartalschrift „Kalonymos“. Seit 2011 wirkt sie mit ihrem Schwerpunkt digitale Edition und Erschließung deutsch-jüdischer Zeitschriften im DARIAH-De-Projekt in den Bereichen fachwissenschaftliche Sammlungen und fachwissenschaftliche Annotationen mit.

Stefan E. Funk arbeitet seit 2004 als Entwickler in der Niedersächsischen Staats- und Universitätsbibliothek Göttingen und koordiniert die Entwicklung des DARIAH-DE Repositoriums sowie die des DARIAH-DE Geo-Browsers. Er ist studierter Informatiker (2004, Uni Göttingen) und erwirbt momentan berufsbegleitend den Master in Bibliotheks- und Informationswissenschaft (MALIS) an der Fachhochschule Köln.

 

Offenheit als Prinzip: Die Dateninfrastruktur der SLUB Dresden

Jens Mittelbach (Sächsische Landesbibliothek Staats- und Universitätsbibliothek Dresden)

2010 stellte die SLUB Dresden ihren Katalog katalog.slub-dresden.de von einem traditionellen OPAC auf eine kommerzielle Discovery-Lösung um. Von Beginn an wurde daran gearbeitet, die Katalogseiten als integralen Bestandteil des Webauftritts der Bibliothek www.slub-dresden.de zu gestalten. Das bedeutete von vornherein: Keine Out-of-the-box-Lösung, auch wenn die Anpassung an die lokalen Bedürfnisse wesentlich mehr erforderte als die Änderung einiger CSS-Dateien. Spätestens seit der Entwicklung der multilingualen semantischen Suche SLUBsemantics www.slub-dresden.de/slubsemantics wurde jedoch klar, dass proprietäre Lösungen jedem Versuch der Modifikation erhebliche Barrieren entgegenstellen und dass die durch das (rechtlich problematische) Reverse Engineering und durch die Programmierung von Workarounds in Anspruch genommen Ressourcen u.U. jene Kapazitäten in den Schatten stellen können, die für die (Weiter-) Entwicklung von quelloffenen Lösungen benötigt würden. Aber nicht nur die Gestaltung von GUIs und die Programmierung von Funktionen sind in nicht-offenen Architekturen schwierig, auch der Bereitstellung von Inhalten sind hier enge Grenzen gesetzt. Nicht zuletzt der Wunsch nach der Offenstellung möglichst aller Daten – von den bibliographischen Daten auch auf Artikelebene über die Objektdaten bis hin zu den Nutzungsdaten – hat die SLUB Dresden zu der Entscheidung geführt, eine Open-Source-Datenmanagement-Plattform D:SWARM www.dswarm.org als Herzstück ihrer Dateninfrastruktur zu entwickeln. Basierend auf Linked-Data-Technolgien ist D:SWARM dazu geeignet, eine Offenheits-Offensive einzuleiten. Entsprechend dieses Offenheits-Ansatzes ist die SLUB Dresden seit 2014 in enger Kooperation mit der UB Leipzig an der Schaffung eines offenen Katalog-Frontends und eines offenen Artikel-Indexes beteiligt. Letzterer ist in der SLUB als Ersatz eines kommerziellen Indexes  bereits seit einiger Zeit im operativen Einsatz. Die Beta-Version eines Kataloges, dessen wesentliches Merkmal ein integrierter Suchraum für sämtliche Datenquellen ist, kann unter katalogbeta.slub-dresden.de begutachtet werden. In diesem Vortrag wird die grundsätzliche Architektur der SLUB-Dateninfrastruktur vorgestellt und die Entwicklungsperspektiven auch in Bezug auf Linked Open Data werden erörtert.

Dr. Jens Mittelbach ist Leiter der Abteilung Benutzung und Information an der SLUB Dresden. Er studierte Anglistik und Germanistik und promovierte im Fach Englische Literatur. Seinen Interessen gelten den Themen Openness und Open Data, Digitale Wissenschaft, Informationstechnologie und Datenmanagement sowie Bibliotheksservices der Zukunft. Er arbeitete in verschiedenen Projekten mit, u.a. TextGrid, SLUBsemantics und D:SWARM.

 

 

Einführung in Linked Open Data

Felix Ostrowski (graphthinking GmbH), Adrian Pohl (Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen Köln)

Dieser zweieinhalbstündige Workshop führt in die Grundlagen von Linked Open Data ein. Neben dem grundlegenden Konzept von HTTP-URIs (Uniform Resource Identifiers) und dem RDF-Modell werden gängige Vokabulare/Ontologien vorgestellt. Außerdem werden wichtige Aspekte bei der Publikation offener Daten erläutert. Die Teilnehmer/innen werden in Gruppenarbeit selbst Linked Open Data über sich und ihre Vernetzung mit anderen Personen im Workshop produzieren, um das Erlernte durch praktische Anwendung zu verfestigen. Auf Basis der so erstellten Daten werden schließlich die Stärken des Linked-Open-Data-Ansatzes veranschaulicht.Dieser Workshop richtet sich an Praktiker wie auch Entscheidungsträger in Bibliotheken.

Felix Ostrowski ist IT-Berater und Entwickler für Informationsmanagement. Nachdem er Kommunikationswissenschaft und Informatik studierte, entwickelte er am Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) Repositorien und baute den Bereich Linked Open Data mit auf. Vor der Gründung der graphthinking GmbH forschte er am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin zur elektronischen Langzeitarchivierung.

Adrian Pohl studierte Kommunikationswissenschaft, Philosophie und Bibliotheks- und Informationswissenschaft. Er ist spezialisiert auf den Bereich Datenmodellierung und RDF-Vokabulare und verantwortlich für das Projekt- und Produktmanagement des Linked-Open-Data-Teams am Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz). Er ist ein Vorsitzender des Programmkomitees der Konferenz SWIB ("Semantic Web in Libraries").

 

Zurück in die Zukunft-die NWBib und das Web

Adrian Pohl (Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen Köln)

Die Nordrhein-Westfälische Bibliographie (NWBib) richtet sich an Menschen, die Bücher, Aufsätze und andere Medien über das Land Nordrhein-Westfalen, seine Städte, seine Menschen und seine Natur suchen. Sie ist mit mehr als 350.000 Einträgen eine der umfangreichsten Regionalbibliographien Deutschlands. Seit 1983 wird sie von den Universitäts- und Landesbibliotheken Düsseldorf und Münster in Zusammenarbeit mit dem Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz) erstellt.

Als Druckmedium konzipiert und die ersten zwanzig Jahre ihrer Existenz als solches publiziert, hat die NWBib seit den 1990er Jahren eine wechselhafte Beziehung zum World Wide Web entwickelt. So war die Bibliographie das erste WWW-Angebot des hbz und konnte schon Mitte der 1990er Jahre über Websuchmaschinen durchsucht werden. Mit der Integration der NWBib in die hbz-Verbunddatenbank verschwand die Bibliographie im "Deep Web" um fast 15 Jahre später mit der Entwicklung eines linked-data-basierten Webauftritts wieder genuiner Bestandteil des World Wide Web zu werden.

Der Vortrag erläutert am Beispiel einer Landesbibliographie die Vorteile von Webtechnologien – von HTTP, URIs und HTML bis RDF und Linked Open Data (LOD) – und wie sich LOD im hbz von einem Experimentierfeld hin zu einer Basis für produktive Dienste entwickelt hat.

 

Datenqualität als Erfolgsfaktor für die Teilhabe am digitalen Kulturerbe: Ein Blick hinter die Kulissen der Deutschen Digitalen Bibliothek und Europeana

Francesca Schulze (Deutsche Nationalbibliothek Frankfurt)

In der Welt des digitalen Kulturerbes sind Qualitätsdaten unerlässlich. Sie sorgen dafür, dass Bestände der Kultur- und Wissenseinrichtungen nicht nur verlässlich zugänglich sondern auch erfahrbar gemacht werden können. Dabei stellen der dauerhafte kultur- und bildungspolitische Auftrag der Deutschen Digitalen Bibliothek (DDB) und die kontinuierlichen Entwicklungen im Bereich Linked Data neue Herausforderungen dar. Aber was ist Datenqualität und welche Bedeutung hat das Thema in Anbetracht der verschiedenen Einflussfaktoren und Nutzergruppen? Dieser Frage haben sich Experten in den Netzwerken der DDB und Europeana gewidmet. Datenqualität ist vor allem eines: ein Ergebnis gemeinsamer Prozesse, die bei der Digitalisierung und Erschließung von Kulturgut beginnen. Dabei bereitet die DDB die Metadaten nicht nur für das eigene Portal auf, sondern stellt sie auch standardisiert und Linked-Data-konform anderen Datennehmern zur Verfügung.  Dies bildet die Basis, damit web-basierte Kulturangebote wie Europeana beliefert sowie neue Funktionen und Dienste entwickelt werden können. Vor diesem Hintergrund werden die aktuellen Arbeiten der DDB und Europeana zum Thema Datenqualität vorgestellt.

Francesca Schulze studierte „Medien und Information“ an der Hochschule für Angewandte Wissenschaften Hamburg. Aktuell arbeitet sie im Team der Projektkoordination der Deutschen Digitalen Bibliothek (DDB) an der Deutschen Nationalbibliothek mit dem Schwerpunkt Metadaten und Metadatenentwicklung.  Sie leitet die Arbeitsgruppe Daten, in der Experten aus allen Kultursparten vertreten sind und koordiniert Prozesse zur Aufnahme von Datenbeständen in die DDB und Europeana. Zuvor arbeitete sie in verschiedenen Medienarchiven und Bibliotheken und im Projekt „European Film Gateway“ am Deutschen Filminstitut – DIF e.V., wo sie die datenseitige Aktivitäten koordinierte.

 

 

Datenqualität im Museumskontext: Eine Anforderungsanalyse aus dem EU-Projekt Athena Plus

Regine Stein (Deutsches Dokumentationszentrum für Kunstgeschichte Bildarchiv Foto Marburg)

Bei Europeana als größtem Datenaggregator im Bereich des kulturellen Erbes und einem der großen Knoten in der Linked Open Data Cloud vollzieht sich derzeit ein gewisser Paradigmenwechsel: Nachdem zu Beginn vor allem die Quantität der angebotenen Datenbestände aus den verschiedensten Kultureinrichtungen im Vordergrund stand, richtet sich der Fokus mittlerweile sehr viel stärker auf die Qualität der Daten. Im Bericht der „Europeana Task Force on Metadata Quality“ vom Mai 2015 werden Schlüsselelemente für gute Datenqualität (“1. Trusted processes, 2. Findable, 3. Human and Machine Readable, 4. Standardised, 5. Meaningful to users, 6. Clear on re-use, 7. Visible”) sowie Empfehlungen benannt, die insbesondere auch spartenspezifisch unterstützt werden sollten.

Athena Plus, ein EU-gefördertes Best Practice Netzwerk mit 40 Partnern aus 21 EU-Mitgliedsländern, hat – neben der Lieferung neuer Datenbestände – die Verbesserung der Suche, Bereitstellung und Weiterverwendung von Europeana-Inhalten insbesondere für den Museumssektor zum Ziel, wobei an die vorangehenden, ebenfalls EU-geförderten Projekte Athena und Linked Heritage angeknüpft wird. Mit der Verwendung des museumsspezifischen Metadatenstandards LIDO werden bereits viele der benannten Schlüsselelemente für gute Datenqualität adressiert. Welche weitergehenden Anforderungen lassen sich aus den bisherigen Erfahrungen für die Datenqualität im Museumskontext ableiten? Mit welchen Stellschrauben in der Prozesskette vom Museum als Datengeber bis zur Publikation als Linked Data im Europeana Knoten können Verbesserungen der Datenqualität im genannten Sinne erreicht werden? Besonderes Augenmerk wird hierbei auf die Vernetzung und Auffindbarkeit mithilfe von kontrollierten Vokabularen und Normdaten sowie auf die spezifischen Anforderungen zur Präsentation von Museumsobjekten gerichtet.

Regine Stein, Diplom-Mathematikerin, ist Leiterin der Abteilung Informationstechnik am Deutschen Dokumentationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg, einer von der Philipps-Universität Marburg getragenen, national und international agierenden Forschungs- und Serviceeinrichtung. Ihre Arbeits- und Forschungsschwerpunkte sind semantische Interoperabilität und Wissensrepräsentation in den Kunst- und Kulturwissenschaften, die Integration und Vernetzung von Daten aus den unterschiedlichsten Quellen der Kulturerbe-Dokumentation sowie die ontologiegestützte Wissensmodellierung. Seit 2001 ist sie aktiv in der Standardisierungsarbeit für die Museumsdokumentation auf deutscher und internationaler Ebene beteiligt und leitet als eine der Entwickler_innen des CIDOC-CRM basierten Metadatenstandards LIDO die Arbeitsgruppe LIDO des Fachkomitees für Dokumentation im Internationalen Museumsbund, ICOM-CIDOC.