DINI e.V.
DINI e.V.
               

DINI / Projekte / OA-Netzwerk / Projektbeschreibung

Aufbau eines Netzwerks zertifizierter Open Access-Repositories

Inhaltliche Konzeption; Auszüge aus einem Antrag auf Förderung durch die Deutsche Forschungsgemeinschaft im Förderbereich Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS)

Antragsteller:

  • Prof. Dr. Peter Schirmbacher, Humboldt-Universität zu Berlin
  • Dr. Judith Plümer, Universität Osnabrück
  • Dr. Norbert Lossau, Staats- und Universitätsbibliothek Göttingen

Zusammenfassung

Ziel dieses Projektes ist es, die internationale Sichtbarkeit nationaler Forschungsaktivitäten im Europäischen Rahmen und darüber hinaus deutlich zu verbessern. Eine durch die Deutsche Initiative für Netzwerkinformation (DINI) durchgeführte Analyse der in Deutschland vorhandenen Repositorien mit wissenschaftlichem Inhalt hat ergeben, dass in Deutschland Repositorien in großer Zahl (138 – Stand Januar 2010) vorhanden sind. Allerdings ist ihre Sichtbarkeit und internationale Wahrnehmung in keiner Weise ausreichend. Dieses Projekt zielt auf eine wesentlich größere Vernetzung möglichst vieler deutscher Repositorien ab und damit auf eine nationale und internationale Akzeptanz. Grundlage dafür bilden zunächst die in einem virtuellen Verbund zusammengeschlossenen DINI zertifizierten Dokumenten- und Publikationsserver. Mit der Zertifizierung von Repositorien übt Deutschland im internationalen Maßstab eine Vorreiterrolle bei der Einführung einer Qualitätsgarantie aus. In dem Sinne ist mit dem Netzwerk auch eine gewisse Signalwirkung auf andere Repositorien beabsichtigt. So soll im Verlauf des Projektes Kapazität dafür genutzt werden, um die Betreiber von Repositorien auf ihrem Weg zur Zertifizierung inhaltlich und technisch zu unterstützen.

Gleichzeitig wird das Ziel verfolgt, mit diesem Netzwerk einen Mehrwert in der Nutzung von Institutionellen Repositorien zu erreichen. Die einzelnen angebotenen Dienste werden in der detaillierten Projektbeschreibung aufgeführt.

Das Projekt steht in sehr enger Wechselwirkung mit den beiden ebenfalls durch die DINI initiierten Projekten zu den Themen OA-Nutzungsstatistiken (OA-Statistik) und OA-Zitationsanalyse (DOARC).

Mit diesen Projekten werden weitere Mehrwertdienste für die Nutzung von Repositorien geschaffen, die ebenso in das aufzubauende Netzwerk integriert werden. Das Netzwerk koordiniert entstehende und bereits vorhandene Dienste und Funktionen in eine nutzerfokussierte Plattform, unterstützt Betreiber von Repositorien durch zusätzliche Informationen, veranstaltet Workshops und bietet Tutorien an. Es optimiert durch die verbesserte Sichtbarkeit den Impact der Publikationen.

Über dieses Projekt erfolgt die internationale Einbindung der DINI-Aktivitäten auf dem Gebiet der Institutionellen Repositorien. Das Vorhaben steht in enger Wechselwirkung mit dem EU-geförderten Projekt DRIVER und bildet in gewissem Sinne den deutschen Beitrag.

Betreuung nach der Projektlaufzeit

Die Deutsche Initiative für Netzwerkinformation e.V. (DINI) hat sich innerhalb ihrer Arbeitsgruppe „Elektronisches Publizieren“ das Ziel gesetzt, die Aktivitäten wissenschaftlicher Bereiche im Rahmen des Open Access-Publizierens zu unterstützen. DINI wird dieses Projekt inhaltlich begleiten. Es wird angestrebt, den laufenden Betrieb des Netzwerks zertifizierter Open Access-Repositorien und der damit in Verbindung stehenden anderen durch die DINI initiierten Projekte OA-Nutzungsstatisitik und OA-Zitationsanalyse (DOARC) nach Ende der Projektförderung innerhalb von DINI zu koordinieren. Die technische Absicherung einschließlich der Pflege des Servers wird die Arbeitsgruppe Elektronisches Publizieren an der Humboldt- Universität übernehmen. Die Vorbereitungen, die für die Fortführung der erzielten Ergebnisse erforderlich sind (nachhaltige Organisationsstruktur, Geschäftsmodell) gehören zum Inhalt des beschriebenen Projekts.

Ausgangslage und eigene Vorarbeiten

Ausgangslage

Einschätzung des gegenwärtigen Sachstandes

Es gibt in Deutschland eine Vielzahl an Aktivitäten auf dem Gebiet des Aufbaus und der Nutzung von Institutionellen Repositorien. Eine Bestandsaufnahme durch die DINI-Arbeitsgruppe „Elektronisches Publizieren“ hat im Frühjahr 2005 ergeben, dass an den deutschen Hochschulen insgesamt 138 Repositorien existieren. Damit ist Deutschland hinsichtlich der Zahl der Repositorien international sicher konkurrenzfähig. Nach der Einschätzung von DINI, die auch auf einem internationalen Workshop im Mai 2005 bestätigt wurden, gibt es folgende Hauptprobleme:

  • Die Repositorien werden international nur wenig wahrgenommen, weil es viele relativ kleine Repositorien mit lediglich bis zu 1.000 Dokumenten sind und die Zahl der darauf angebotenen Dienste nur sehr gering ist.
  • Die Repositorien werden auch innerhalb Deutschlands nur beschränkt aus nahezu denselben Gründen wahrgenommen. Hier kommt erschwerend hinzu, dass der Kenntnisstand vieler Wissenschaftlerinnen und Wissenschaftler zum Umgang mit elektronischen Publikationen in Abhängigkeit vom jeweiligen Fachgebiet sehr unterschiedlich entwickelt ist.
  • In der Mehrzahl der Fälle wird der Inhalt der Repositorien durch Dissertationen und Habilitationen bestimmt. Die für die Open Access-Bewegung charakteristischen Post-Publikationen sind noch relativ selten vertreten. In vielen Fällen erkennen die Wissenschaftlerinnen und Wissenschaftler den Mehrwert der Veröffentlichung in einem Repositorium gar nicht oder nur begrenzt.
  • Deutschland hat den Vorteil, dass durch das DINI-Zertifikat für Institutionelle Repositorien ein Qualitätsstandard geschaffen wurde, an dem sich die einzelnen Repositorien messen lassen können und vielfach messen lassen müssen. Von den 107 Repositorien sind gegenwärtig lediglich 19 zertifiziert. Nahezu die Hälfte der Repositorien verfügt gegenwärtig noch nicht über eine OAI-Schnittstelle, so dass der Austauschbarkeit der enthaltenen Metadaten enge Grenzen gesetzt sind.

Mit diesem Projekt soll die Sichtbarkeit der Repositorien erhöht werden, indem ein Netzwerk aufgebaut wird, auf dem sukzessive ergänzende Mehrwertdienste etabliert werden sollen.

Nationale und internationale Entwicklungen

Das OAI-Protokoll

Das Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH) wurde als ein lowlevel Protokoll zum Austausch beliebiger Metadaten zwischen Instanzen über das Web entwickelt und ist in der Version 2.0 seit 2002 stabil. Durch die Vereinbarung, Dublin Core simple Metadaten als verpflichtend in dem Protokoll zu definieren, wurde dieses für die Vernetzung digitaler Bibliotheken zum defacto Standard. Dabei wird zwischen sogenannten Data Providern, die Metadaten zu Objekten anbieten, und Service Providern, die Dienste über eine Nutzungsschnittstelle auf der Grundlage der Metadaten der OAI-Data Provider anbieten, differenziert. Die Open Archives Initiative betreibt eine eigene Registry für Data- und für Service Provider, jedoch ist die Mehrzahl der OAI-Data Provider dort nicht angemeldet, sondern nutzt die Schnittstelle zum rein internen Datenaustausch.

OAIster

OAIster ist der OAI-Service Provider, der eine Suche über die Metadaten aller in der OAI-Registry angemeldeten OAI-Data Provider ermöglicht. Durch die Verwendung von Dublin Core simple in allen OAI-Data Providern ist eine begrenzt strukturierte Suche möglich. Hierbei findet jedoch keine Deduplizierung identischer Metadatensätze statt, die von unterschiedlichen OAI-Data Providern nachgewiesen werden, auch ist kein thematisches Browsing der Datensätze möglich. Thematisches Browsing ist auf Grundlage von OAI-PMH und Dublin Core allein nicht möglich, sondern erfordert zusätzlich die Klassifizierung mit einem standardisierten Schema, wie es beispielsweise das DINI-Zertifikat fordert. Ziel von OAIster ist es also, möglichst viele Daten nachzuweisen, nicht jedoch diese qualitativ zu erschließen.

BASE

Die Bielefeld Academic Search Engine indexiert wie OAIster die Inhalte von OAI-Data Providers, aber auch anderen Quellen unter Anwendung moderner Suchmaschinentechnologien und stellt performante Suchdienste für Endnutzer zur Verfügung. Derzeit sind Inhalte aus ca. 274 Quellen (knapp 4 Millionen Dokumente) suchbar und nach verschiedensten Kriterien (bibliografische Daten, Nutzungsbedingungen etc.) darstellbar. Da die technologische Lösung mit der Abhängigkeit von einem kommerziellen Anbieter derzeit nicht ohne weiteres nachnutzbar ist, sind die Anwendungsmöglichkeiten im OA-Netzwerk beschränkt, aber als exemplarische Lösung in Betracht zu ziehen. Es konnte in einer Studie gezeigt werden, dass die Funktionalität auch in Kombination mit nicht-kommerzieller Technologie zu erreichen ist (siehe). Diese Erkenntnisse werden in den Entwicklungen vom OA-Netzwerk berücksichtigt.

SCOPUS / Web of Science

Mit SCOPUS stellt der Wissenschaftsverlag Elsevier seit zwei Jahren eine Suchmaschine für wissenschaftliche Veröffentlichungen bereit, die auf einer zentralen Datenbank mit derzeit ca. 15.000 begutachteten Zeitschriftentiteln, 28 Millionen Metadatensätzen und 245 Millionen Referenzen fußt. Die Oberfläche stellt komfortable Funktionen zur Freitextsuche, zum Browsing, zur Zitationsanalyse und zum strukturierten Export von Metadaten in einigen gängigen Formaten zur Verfügung. Die Nutzung der Suchmaschine ist kostenpflichtig. Innerhalb Deutschlands werden diese Dienstleistungen ab 2007 nur von wenigen Universitätsbibliotheken abboniert. Hinzu kommt, dass bisher fast ausschließlich komplette Zeitschriften über SCOPUS verfügbar sind. Die heterogenen Inhalte der für das Projekt OA-Netzwerk und die anderen durch DINI initiierten Vorhaben relevanten institutionellen Dokumentenserver werden in SCOPUS nicht nachgewiesen. Im Hinblick auf die angebotenen Funktionalitäten stellt die Plattform jedoch durchaus einen Ausgangspunkt für die Entwicklungen innerhalb von OA-Netzwerk dar.

Mit dem von Thomson entwickelten und vermarkteten Web of Science befindet sich ein ganz ähnliches – ebenfalls kostenpflichtiges – Produkt bereits etwas länger am Markt. Detaillierte Funktionalitäten und die Abdeckung der Zeitschriften unterscheiden sich geringfügig von SCOPUS. Die finanzielle und technologische Abhängigkeit von einem kommerziellen Anbieter sprechen ebenso für die Neuentwicklungen innerhalb von OA-Netzwerk wie die fehlende Einbindung der institutionellen Dokumentenserver.

Google Scholar

Google Scholar basiert auf den Techniken von Google, also einer einfachen Ein-Feld-Suchmaske, der Google-typischen Ergebnis-Präsentation und dem Page-Rank-Algorithmus zum Ranking der Trefferlisten. Im Gegensatz zu Google wird hier jedoch der Suchraum auf die vermutlich akademischen Dokumente verengt, andererseits wird der Suchraum um zahlreiche Repositorien und Datenbanken erweitert, die wissenschaftliche Publikationen anbieten. Vermutliche Dubletten der Volltexte werden identifiziert und zusammengeführt, so dass in der Ergebnisanzeige alternative Quellen für ein einzelnes Dokument angeboten werden, wobei Scholar teilweise auch Metadaten von Volltexten anzeigt, die dann gegen Bezahlung erworben werden können. Der Suchraum wird laufend auch durch das Einscannen von Büchern im Rahmen des Vorhabens Google-Print erweitert, so dass hier parallel auch die Suche in gedruckten Werken möglich ist. Da Google dieses rasante Wachstum teilweise nur durch Missachtung von Verwertungsrechten realisieren konnte, erscheint die Persistenz dieses Dienstes fraglich. Auch ist die Quellenauswahl nicht nach ausschließlich wissenschaftlichen, neutralen Kriterien gegeben, so dass Scholar als Informationsbasis einer Wissenschaftsgesellschaft untauglich ist, auch schon deshalb, weil diese sich nicht in die Abhängigkeit eines Monopolisten begeben sollte.

DOAJ

Das an der Universität Lund gepflegte Directory of Open Access Journals (DOAJ) listet weltweit derzeit etwa 2.500 wissenschaftliche Zeitschriften, die in Form von Open Access zur Verfügung stehen. Es bietet einen sehr guten Überblick über das Ausmaß, dass der so genannte goldene Weg zu Open Access bereits hat. Das DOAJ ist jedoch vornehmlich ein bibliografisches Nachweisinstrument auf der Ebene der Zeitschriftentitel mit entsprechenden Verweisen zu den elektronisch verfügbaren Ausgaben. Die Möglichkeit, innerhalb der Zeitschrift (Jahrgänge, Ausgaben, Artikel) zu recherchieren, ist auf einen Anteil der Zeitschriften begrenzt. Die Indexierung auf Artikelebene ist derzeit nicht standardisiert. Oft wird der Nutzer auf die lokalen Funktionalitäten der Webpräsenzen der einzelnen Zeitschriften verwiesen. Technologisch werden die Vorteile, die ein Vorliegen ganzer Zeitschriften in Form von Open Access bietet, vom DOAJ derzeit nicht vollständig ausgenutzt.

OpenDOAR

Analog zum DOAJ wird in Großbritannien im Rahmen von SHERPA das Directory of Open Access Repositories (OpenDOAR) gepflegt. Neben einer Liste der weltweit bekannten Repositorien werden hier Hilfestellungen zur technischen Entwicklung, Administration und Pflege von Dokumentenservern gegeben. Es bietet beispielsweise auch für Deutschland einen sehr guten Überblick über entsprechende – vor allem institutionelle – Aktivitäten, der auf nationaler Ebene (beispielsweise bei DINI) so bisher nicht existiert. Im Gegensatz zu ROAR (s.u.) findet in OpenDOAR vor dem Nachweis eine manuelle Qualitätskontrolle statt.

ROAR / ROARMAP

Die Registry of Open Access Repositories (ROAR), die an der University of Southampton gepflegt wird, listet derzeit weltweit über 1500 Dokumentenserver und andere Eprint-Server auf, um damit den Bestand und die Entwicklung von Open-Access-Repositorien sichtbar zu machen und zu dokumentieren. Sofern OAI-Schnittstellen der Repositorien vorhanden und bekannt sind, wird eine monatlich aktualisierte Statistik vorgehalten, die die Entwicklung des Dokumentbestands für jedes Repositorium veranschaulicht. Einen Überblick über institutionelle Richtlinien zu Open Access gibt die Registry of Open Access Repository Material Archiving Policies (ROARMAP) (Liste), die weltweit etwa 40 Regelungen Etwa ein Drittel davon verpflichtet die Wissenschaftler zur frei zugänglichen Veröffentlichung ihrer Artikel. Sieben Erklärungen stammen aus Deutschland - neben der DFG haben sich bisher fünf Universitäten und ein Institut Open-Access-Leitlinien gegeben. Dazu zählen vor allem Universitäten, die ihre Wissenschaftler mit entsprechenden Aufrufen für das Thema sensibilisieren wollen und sie zur Open Access- Veröffentlichung ihrer Artikel auffordern.

NDLTD

Die Networked Digital Lirbrary of Theses and Dissertations (NDLTD) bildet einen Genrespezifischen Prototypen für eine internationale, verteilte digitale Bibliothek. Ziel des Vorhabens ist es, eine Alternative zu gedruckten Dissertationsschriften zu bieten und die hierzu notwendigen internationalen Aktivitäten zu vernetzen, um gemeinsame Standards zu schaffen. NDLTD selbst bietet keine Dienste an, sondern fungiert lediglich als Portal zu einem Netzwerk von Datenanbietern und Diensteanbietern und übernimmt die Rolle eines katalytisch vorantreibenden und technisch regulativen nutzerorientierten Zuganges. Dabei werden neben Autorenwerkzeugen auch Suchschnittstellen und Zusatzdienste propagiert. Technisch basiert das Netzwerk auf XML, SGML und dem OAI-PMH.

DINI-Zertifikat

Die Aktivitäten der Arbeitsgruppe „Elektronisches Publizieren“ der DINI gehen auf das Jahr 2001 zurück, als mit einer ersten Schrift Empfehlungen zum elektronischen Publizieren an deutschen Hochschulen veröffentlicht wurden. In Auswertung der Wirksamkeit dieser Empfehlungen wurde im Jahr 2003 eine Umfrage bei den deutschen Hochschulen initiiert aus der hervorging, dass die vorliegenden Handlungsanweisungen, die in der Zwischenzeit um Empfehlungen zum Aufbau von OAI-Schnittstellen ergänzt worden waren, zwar als sehr hilfreich empfunden wurden, jedoch als noch nicht ausreichend.

Aus diesem Grund hat sich die DINI Arbeitsgruppe entschlossen, technische Qualitätsstandards zu entwickeln, die letztlich die Basis für das DINI-Zertifikat für Dokumenten- und Publikationsserver darstellen. Im Jahr 2004 wurde das Zertifikat erstmals vorgestellt und hat sowohl national als auch international großen Anklang gefunden. Grundsätzlich wird davon ausgegangen, dass ein Server einen Mindeststandard erfüllen muss, um das Zertifikat zu erhalten. Parallel dazu wurde mit den in der Zertifikatsschrift enthaltenen DINIEmpfehlungen, auch den vorhersehbaren künftigen Entwicklungen Rechnung getragen. Gegenwärtig stützt sich das Zertifikat auf sieben Kriterien:

  1. Policy des Dokumenten- und Publikationsservice
  2. Autorenbetreuung
  3. rechtliche Fragen
  4. Authentizität und Integrität
  5. Erschließung
  6. Zugriffsstatistik
  7. Langzeitverfügbarkeit

In den Jahren 2005 und 2006 wurden die Zertifikatskriterien gründlich diskutiert, so dass seit 2007 ein erweitertes Zertifikat angeboten wird.

Aktuell befindet sich das DINI-Zertifkat 2010 in der Entwicklung.

Zur Vergabe des Zertifikats wurde eine Gruppe von Gutachtern durch die DINI Arbeitsgruppe berufen, von denen jeweils zwei eine Prüfung auf Erfüllung der Kriterien durch die jeweiligen Antragsteller durchführen, bevor das Zertifikat ausgehändigt wird.

Projekte und Aktivitäten mit übergreifender wissenschaftspolitischer Ausrichtung

Berliner Erklärung

Die so genannte Berlin Declaration on Open Access in the Sciences and Humanities vom Oktober 2003, zu deren Erstunterzeichnern alle großen deutschen Wissenschaftsorganisationen zählen, bildet zumindest für die deutsche Wissenschaftswelt den Ausgangspunkt für die meisten Überlegungen und Aktivitäten im Rahmen von Open Access. Demnach stellen die Autoren von Open Access-Publikationen eine vollständige elektronische Fassung auf einem im Internet zugänglichen Publikationsserver bereit und gewähren dabei allen Nutzern das freie, unwiderrufliche und weltweite Zugangsrecht sowie die Erlaubnis zur Verwendung, zum Kopieren, zur Weitergabe, zur Übertragung und zur Abbildung unter der Bedingung der korrekten Nennung der Urheber.

Der Berliner Erklärung folgten bisher sechs weitere Konferenzen in Genf („Berlin 2“), Southampton („Berlin 3“), Potsdam-Golm („Berlin 4“), Padua („Berlin 5"), Düsseldorf („Berlin 6") und Paris („Berlin 7") die sich mit der Verbreitung des Open Access-Gedankens und mit dessen praktischer Umsetzung durch Wissenschaftler und wissenschaftliche Institutionen beschäftigten. Auch wenn die Implementierung der Berliner Erklärung gemessen an der durch die Unterzeichner zum Ausdruck gebrachten breiten Unterstützung zumindest in Deutschland noch nicht sehr weit fortgeschritten ist, lassen sich erste konkrete Ergebnisse erkennen. So hat die Deutsche Forschungsgemeinschaft als größte deutsche Förderinstitution Anfang 2006 Richtlinien verabschiedet, nach denen sie erwartet, dass Forschungsergebnisse, die mithilfe ihrer Zuschüsse entstehen, möglichst auch in Form von Open Access zugänglich gemacht werden (für den genauen Text siehe). Ebenso gibt es inzwischen mehrere Universitäten, die ihren Wissenschaftlern nahe legen, wissenschaftliche Publikationen zusätzlich in Form von Open Access zu veröffentlichen oder als Veröffentlichungsweg Open Access-Zeitschriften zu wählen.

DINI-Symposium zu Open Access

Vom 23. bis 24. Mai 2005 fand in der Staats- und Universitätsbibliothek Göttingen unter Mitwirkung von SPARC Europe und GAP ein Symposium mit dem Titel Wissenschaftliches Publizieren der Zukunft – Open Access statt. Der von DINI veranstaltete Workshop beschäftigte sich vor allem mit der Rolle von Institutionellen Repositorien für das wissenschaftliche Publizieren, aber auch mit dem derzeit erkennbaren und dem grundsätzlichen Potential von Open Access sowie mit Entscheidungsprozessen in den Hochschulleitungen und mit Fragen der Wertschöpfungskette. Als Ergebnis des Symposiums konnte festgestellt werden, dass es in Deutschland eine Vielzahl von Aktivitäten zu verzeichnen gibt, der Gedanke der Open Access- Bewegung jedoch noch keinen großen Raum einnimmt. In nur sehr wenigen Repositorien gibt es überhaupt Post-Publikationen im Verständnis der Open Access-Initiative und in den wenigen sind die verfügbaren Arbeiten noch rar. Durch die DINI Arbeitsgruppe wurde aus diesem Grund ein Empfehlungspapier erarbeitet, das den wissenschaftlichen Einrichtungen in Deutschland helfen soll, einrichtungsbezogene Leitlinien zu erarbeiten, um Open Access zum Durchbruch zu verhelfen. Die Veröffentlichung des Papiers erfolgte im Zusammenhang mit der DINI-Jahrestagung am 27.09.2006. Es trägt den Titel: „Open Access an deutschen Hochschulen - Strategische Gestaltungsoptionen für Hochschulleitungen“

Workshop zum Impact elektronischer Publikationen

Am 20. und 21. Februar 2006 fand an der Humboldt-Universität zu Berlin der durch die DFG finanzierte und durch DINI organisierte International Workshop on Institutional Repositories and Enhanced and Alternative Metrics of Publication Impact statt, bei dem Referenten und Teilnehmer aus aller Welt über die Messung des Impacts elektronisch veröffentlichter Dokumente und die Erstellung standardisierter Statistiken auf der Basis von Nutzerdaten sowie über frei verfügbare Zitierinformationen diskutierten (Programm, Zusammenfassung in D-Lib Magazine Nr. 5 (2006)). Dieser Workshop kam einer Bestandsaufnahme der gegenwärtigen Situation in Deutschland gleich, wobei durch die internationalen Teilnehmer auch eine Einschätzung nationalen Aktivitäten im internationalen Kontext möglich wurde. Insbesondere wurde deutlich, dass alle nationalen Aktivitäten auf dem Gebiet des elektronischen Publizierens nur im europäischen und weltweiten Maßstab zu sehen sind.

Durch den Workshop wurden die notwendigen nächsten Schritte der Entwicklung von Repositorien in Deutschland herausgearbeitet. Im Ergebnis wurden die drei eingangs erwähnten Projektanträge erarbeitet, um ausgehend von den diskutierten Problemstellungen wissenschaftlichen Publikationen aus Deutschland international eine höhere Sichtbarkeit zu geben.

SHERPA/RoMEO-Liste

Um Autoren und Dienste-Entwicklern einen Überblick über die diversen Open-Access-Policies (bzw. das faktische Agieren) der Verlage zu geben, ohne zuvor ein Studium des internationalen Vertragsrechts absolvieren zu müssen, wurde eine ständig erweiterte Liste von Zeitschriften im Rahmen des RoMEO Projektes entwickelt und die Rechte der Autoren in vier Farbabstufungen leichtverständlich dargestellt. Diese Liste wurde später vom SHERPAProjekt übernommen (Liste der Lizenzen).

Projekt Open Access Policies

Der für den deutschsprachigen Raum sehr begrenzten Nutzbarkeit der SHERPA/RoMEOListe wird durch das durch die DFG geförderte Projekt Open Access Policies begegnet, das gemeinsam von der Universitätsbibliothek Stuttgart und den Computer- und Medienservice der Humboldt-Universität zu Berlin durchgeführt wird (Homepage). Das Ziel dieses Projektes besteht darin, die im Rahmen ihres Informationsgehalts bereits gut etablierte SHERPA/RoMEO-Liste um Informationen über deutsche Verlage zu erweitern. Das Projekt wurde in 2 Projektphasen durchgeführt und endete 2009. 

Der Zugriff auf die Datenbank "Was gestatten Verlage bei der Selbstarchivierung im Open Access" erfolgt über die DINI-Webseiten.

DRIVER

Das durch die europäische Union im Rahmen des sechsten Rahmenprogramms geförderte Projekt DRIVER (Digital Repository Infrastructure Vision for European Research) vereint unter der Leitung der Universität Athen neun namhafte europäische Institutionen und Organisationen. Die wesentliche Zielstellung des Projekts besteht darin, eine Testumgebung für eine europäische Wissensinfrastruktur zu entwickeln und aus der europäischen Forschung hervorgegangene wissenschaftliche Publikationen über eine einheitliche Schnittstelle nach außen zur Verfügung zu stellen. Dabei soll auf der Grundlage der durch die so genannten Wissens-Repositorien bereit gestellten Informationen ein wesentlicher Bestandteil einer EInfrastruktur für Lehre und Forschung in Europa etabliert werden. Die durch DRIVER zu entwickelnde Testumgebung stützt sich insbesondere auf Infrastrukturen digitaler Repositorien, die auf nationaler Ebene existieren bzw. sich entwickeln. Es ist vorgesehen, dass das OA-Netzwerk für Deutschland diese Bindegliedfunktion zwischen den einzelnen Wissenschaftsinstitutionen und der in Form des Projekts DRIVER auftretenden europäischen Ebene wahrnimmt. Das Projekt hat mit einem Kick-Off-Meeting im Juni 2006 offiziell begonnen und befindet sich aktuell in der dritten Projektphase. 

Auf eine oder mehrere Hochschulen fokussierte Projekte und Initiativen

GAP

Das von der DFG geförderte Vorhaben German Academic Publishers (GAP) hatte zum Ziel, den freien Zugang zu qualitätsgeprüfter wissenschaftlicher Information im Sinne des Open Access-Gedankens aktiv und nachhaltig zu fördern. Inzwischen ist die Aktivität an einen eingetragenen Verein übergegangen. Technisch wurde mit der Software GAPworks eine flexibel anpassbare Back-Office-Lösung für Universitäts- und andere Open Access-Verlage entwickelt, die Metadaten-Import und -Export über OAI im Format Dublin Core qualified umsetzt.

DiPP

Die Initiative Digital Peer Publishing NRW unterstützt neue Formen der wissenschaftlichen Kommunikation, indem Wissenschaftlerinnen und Wissenschaftlern – in Zusammenarbeit mit Bibliotheken – technische, rechtliche und organisatorische Hilfen an die Hand gegeben werden, um Informationen über ihren Forschungszweig für Ihre 'Peers' auf digitalem Wege zu verbreiten. Derzeit wird DiPP vornehmlich von elektronischen Zeitschriften zur Primärpublikation genutzt.

Die Ziele der Initiative sind

  • die bessere Nutzung und Sichtbarkeit von wissenschaftlicher Information durch konsequente und offene Nutzung von Web-Technologien,
  • vielseitigere Inhalte durch Publikationsmethoden für Medien und Daten,
  • eine verständlichere Wissenschaft durch umfassende Abbildung des Forschungsprozesses und
  • die schnellere Publikation durch rein digitale Praxis.

Die DiPP-Plattform bietet technische, rechtliche und organisatorische Hilfen für das wissenschaftliche Publizieren, die dem individuellen Bedarf angepasst werden.

Informationsplattform Open Access

Das von der DFG geförderte Projekt Informationsplattform zu Open Access (IP-OA) hat im September 2006 die Arbeit unter der Leitung der Universitätsbibliothek Bielefeld begonnen.

Das Projekt hat das Ziel, Konzepte, rechtliche, organisatorische und technische Rahmenbedingungen, konkrete Erfahrungen bei der Umsetzung sowie Initiativen, Dienste / Dienstleistungsanbieter und Positionspapiere an zentraler Stelle zusammen zu stellen. Zielgruppe des Angebots sind die Akteure des Wissenschaftsbereichs, insbesondere die Wissenschaftlerinnen und Wissenschaftler selbst, aber auch die Leitungen von Hochschulen und Forschungseinrichtungen, Infrastrukturdienstleister wie z. B. Bibliotheken und Rechenzentren und nicht zuletzt auch Förderorganisationen und politische Entscheidungsträger.

Ziel der IP-OA ist das strukturierte Zusammenfassen schon bestehender jedoch teils stark verteilter Informationen zu Open Access, sowie die Aufbereitung und der einfache Zugang zu diesen Informationen. Unterstützt wird dieses Ziel zum einen durch den kooperativen Aufbau der IP-OA, als auch die dauerhafte Einbeziehung und Mitwirkung der Akteure selbst. Mit IPOA entsteht eine zentrale Anlaufstelle für sämtliche relevanten Informationen rund um Open Access.

Die Informationsplattform steht unter der URL www.open-access.net zur Verfügung.

OA-Initiativen deutscher Hochschulen

Bisher haben sich fünf Universitäten und ein einer Universität zugehöriges An-Institut eine offizielle Open Access-Policy gegeben, in der sie ihre wissenschaftlichen Mitarbeiter auffordern, ihre Publikationen frei im Internet zugänglich zu machen und im Rahmen von Open Access auf den Dokumentenservern der jeweiligen Einrichtung zu veröffentlichen (siehe die Liste in ROARMAP). Dazu zählen die Universität Bielefeld, die Universität Bremen, die Universität Hamburg, die Humboldt- Universität zu Berlin und die Universität Potsdam sowie das Institute for Science Networking (ISN) an der Universität Oldenburg. Die jeweils formulierten Erklärungen bzw. Richtlinien berufen sich fast alle explizit auf die Berliner Erklärung und übernehmen deren Zielstellungen wörtlich bzw. sinngemäß. Allen Erklärungen ist außerdem gemein, dass sie lediglich Empfehlungen aussprechen und die Wissenschaftler nicht verpflichten, ihre Publikationen in Form von Open Access zu veröffentlichen. Dies ist vor allem auf das im Grundgesetz verankerte Recht auf Wissenschaftsfreiheit zurückzuführen, das nach Ansicht der meisten Juristen die Entscheidungsfreiheit darüber einschließt, wo und auf welche Art und Weise die Forschungsergebnisse veröffentlicht werden.

Weitere OA-Initiativen: Mandates

Der einheitliche Bezug auf die Berliner Erklärung ist im internationalen Vergleich nicht immer der Fall. So gibt es weltweit mehrere Open Access-Erklärungen sowohl von wissenschaftlichen Einrichtungen als auch von Forschungsförderern, die die frei verfügbare Veröffentlichung von Forschungsergebnissen nicht nur anregen oder empfehlen, sondern die eigenen Mitarbeiter bzw. die aus Fördermitteln finanzierten Wissenschaftler verpflichten, ihre Publikationen in Form von Open Access zu veröffentlichen (diese Verpflichtungen werden auch als Mandates bezeichnet). Innerhalb Europas bildet Großbritannien den Schwerpunkt bei den so genannten Open Access-Mandates. Als erste Fördereinrichtung verpflichtete der Wellcome Trust Mittelempfänger dazu, frei zugängliche elektronische Kopien wissenschaftlicher Artikel zur Verfügung zu stellen. Inzwischen sind diesem Beispiel vier weitere britische Forschungsförderer gefolgt. Zu den herausragenden Präzedenzfällen auf dem Gebiet der institutionellen Open Access-Verpflichtungen zählt das CERN, für deren Wissenschaftler seit März 2005 eine entsprechende Verpflichtung gilt. Institutionelle Verpflichtungen haben auch einzelne Universitäten in Australien, Indien und Portugal erlassen.

Projekte mit vorrangig technisch-technologischer Ausrichtung

Software für Repositorien

Für die Realisierung von Institutionellen Repositorien wurden unterschiedlichste technologische Lösungen entwickelt – teilweise mehr oder weniger ausschließlich für den Eigenbedarf einzelner Dokumentenserver, vielfach jedoch auch im Rahmen einer Produktentwicklung, die in einigen Fällen zu einer weit reichenden Nachnutzung und ständigen (verteilten) Weiternutzung geführt hat.

Das DINI-Zertifikat „Dokumenten- und Publikationsserver“ definiert hier den technischen Mindeststandard der in Hochschulen verwendeten Softwarelösungen. Die heute gängigen Implementationen verfügen in der Regel bereits über eine integrierte OAI-Schnittstelle, was den standardisierten Austausch von Metadaten wesentlich vereinfacht und zu einer guten Integrationsfähigkeit der einzelnen Institutionellen Repositorien weltweit und insbesondere auch innerhalb Deutschlands führt. Als verbreitete Installationen, wird das OA-Netzwerk Kopplungen an die OAI-Data Provider insbesondere der folgend nicht abschließend und alphabetisch gelisteten Progammpakete/Produkte erfordern:

DSpace: Entwickelt von der Library des MIT in Kooperation mit HP ist diese Open-Source (BSD) Software insbesondere im angelsächsischen Bereich verbreitet, auch drei der deutschen DINI-zertifizierten Repositorien nutzen DSpace, das es nur in einer Unix/Linux-Version gibt und Tomcat als Applikationsserver erfordert. In Deutschland wird DSpace zum Beispiel an der SUB Göttingen bei dem Betrieb der Virtuellen Fachbibliothek Geo-Leo eDocs eingesetzt.

Eprints: Diese in Southampton (UK) entwickelte Open-Source (GPL) Software wird derzeit auf zwei der zertifizierten und zu koppelnden Repositorien eingesetzt. Die OAI Schnittstelle ist standardkonform. Im Gegensatz zu den anderen hier erwähnten Produkten ist Eprints für die Eigenpublikationen von Wissenschaftlern (Selfarchiving) optimiert, wird jedoch auch in Institutionellen Repositorien eingesetzt. Diese Software setzt Unix/Linux voraus und nutzt einen Apache http-Server.

Fedora: In Java entwickelt ist diese Software international verbreitet, jedoch nur von zweideutschen zertifizierten Repositorien genutzt. Leicht verwechselt mit Red Hats gleichnamiger Linux-Distribution. Diese Software unterscheidet sich von den anderen hier erwähnten Paketen insbesondere durch die RDF-Fähigkeit des Gesamtsystems.

Miless/MyCoRe: MyCoRe ist ein Open-Source-Projekt zur Entwicklung eines Systems für Digitale Bibliotheken und Archivlösungen (oder allgemeiner "Content Repositories" = CoRe). Für alle Grundfunktionen einer digitalen Bibliothek will MyCoRe bereits Implementierungen bereitstellen, so dass einfache Anwendungen primär durch Konfiguration statt Programmierung realisiert werden können. Die technische Basis des Systems bilden Java- Klassenbibliotheken, XML-Techniken und unterschiedliche Datenbank-Backends wie IBM Content Manager und IBM DB2, sowie MySQL und XMLDB kompatible Datenbanken.

OPUS: OPUS ist mit neun von 19 DINI-zertifizierten Dokumenten-Servern die derzeit verbreitetste Software zur Realisierung eines OA-Repositoriums. OPUS ist ein Programmpaket, das mittels PHP und mySQL realisiert ist. Die OAI-Schnittstelle ist nach bisheriger Erfahrung standardkonform.

exSPACT

exSPACT – Exemplary Solutions for Publishing Academic Texts – ist ein durch die DFG gefördertes Projekt, das gemeinsam vom Lehrstuhl Frühe Neuzeit am Historischen Seminar der Universität Köln und dem Informationszentrum Sozialwissenschaften in Bonn durchgeführt wird und im September 2005 begonnen wurde. Dabei geht es um die Entwicklung so genannter Publikationsinstrumente für den wissenschaftlichen Betrieb, die anhand des geschichtswissenschaftlichen Fachportals historicum.net exemplarisch zum Einsatz kommen sollen. Kernbestandteil des vor allem auf die Webpublikation ausgerichteten Systems ist ein Dokumentmanagementsystem, das auf dem Redaktionssystem Typo3 basiert. Ziel ist es, das durch das Textverarbeitungssystem von OpenOffice verwendete XML-basierte Dateiformat als Grundlage für die Speicherung der Dokumente zu benutzen und daraus HTML und PDF zu generieren. Geplant ist außerdem, eine Editieroberfläche für OpenOffice zu schaffen, mit deren Hilfe Autoren neben den eigentlichen Texten auch die Metadaten eingeben können, ohne dabei ihre Arbeitsumgebung (OpenOffice) zu verlassen.

Eigene Vorarbeiten

DINI Arbeitsgruppe Elektronisches Publizieren

Die innerhalb des vorgeschlagenen Projektes zusammenarbeitenden Kooperationspartner arbeiten bereits seit vielen Jahren innerhalb der Arbeitsgruppe Elektronisches Publizieren der DINI erfolgreich zusammen. Sie haben maßgeblich an der Entwicklung des DINIZertifikats mitgewirkt und gehören zum Kreis der Gutachter, die entsprechende Anträge bewerten. Aus der Arbeitsgruppe gingen darüber hinaus das DINI-Symposium zu Open Access im Mai 2005 und der Workshop zum Impact elektronischer Publikationen im Januar 2006 hervor. Außerdem wurden Empfehlungen für die inhaltliche Gestaltung von OAI-Schnittstellen entwickelt und bereits mehrere Tutorials und Workshops unter anderem zur Implementierung des OAI-Protokolls für Dokumenten- und Publikationsserver durchgeführt.

Humboldt-Universität zu Berlin

Die Humboldt-Universität zu Berlin ist im Zusammenhang zahlreicher Projekte und im Rahmen der Arbeitsgruppe Elektronisches Publizieren seit 1997 im Bereich des elektronischen Publizierens tätig. Sie betreibt den institutionellen Dokumenten- und Publikationsserver36 („edoc-Server“), auf dem die elektronischen Publikationen der Humboldt-Universität (insbesondere Qualifikationsarbeiten, elektronische Zeitschriften, Instituts- und Schriftenreihen und Konferenzbände) sowie Digitalisate veröffentlicht werden. Seit die Humboldt-Universität im Mai 2006 ihre Open Access-Erklärung verabschiedet hat, in der jeder hier beschäftigte Wissenschaftler aufgefordert wird, eigene Veröffentlichungen als Pre- oder Postprint zusätzlich als Open Access zur Verfügung zu stellen, werden auch diese Veröffentlichungen auf dem edoc-Server gespeichert. Als einer der ersten Dokumentenserver in Deutschland trägt der edoc-Server seit 2004 das DINI-Zertifikat.

Das besondere Augenmerk der technologischen Entwicklungen an der Humboldt-Universität liegt im Bereich der Publikationswerkzeuge. Vor allem mit Hinblick auf die medienneutrale und für die Langzeitarchivierung geeignete Publikation auf der Basis von XML wurden zahlreiche Dokumentvorlagen und Styles, Dokumenttypdefinitionen sowie Konvertierungs- und Transformationstechnologien entworfen und implementiert. Im Rahmen des durch die DFG geförderten Projekts SCOPE – Service Core for Open Publishing Environments – werden die vielfältigen Technologien modularisiert und mithilfe eines abstrakten Modells formal beschrieben. Dahinter steht die Zielstellung, die einzelnen Komponenten für eine Nachnutzung verfügbar machen zu können und die unterschiedlichen Technologien an die vielfältigen Bedürfnisse von Herausgebern und kooperierenden Institutionen anpassen zu können. Neben der Entwicklung von Publikationskomponenten und der weiteren Arbeit an dem eigentlichen Publikationssystem steht die Bereitstellung modularisierbarer Dienstleistungen einschließlich des vollständigen Hostings für wissenschaftliche Einrichtungen und Zeitschriften im Mittelpunkt.

Die Entwicklung eines auf dem OAI-Protokoll basierenden OAI-Service Providers, mithilfe dessen eine gemeinsame Suche innerhalb der Metadaten mehrerer deutscher Dokumentenund Publikationsserver realisiert wurde, gehört zu den unmittelbaren Vorarbeiten der Humboldt- Universität auf dem technologischen Gebiet, das der vorliegende Antrag abdeckt. Mit der prototypischen Implementierung wurden Erfahrungen im client-seitigen Umgang mit dem OAI-Protokoll gesammelt. Sie dient als Ausgangspunkt für die OAI-basierten Entwicklungen innerhalb des Projekts OA-Netzwerk.

Universität Osnabrück

Die Arbeitsgruppe Mathematische Fachinformation des Fachbereiches Mathematik/ Informatik der Universität Osnabrück arbeitet seit Jahren auf dem Gebiet Digitaler Dienstleistungen für Fachwissenschaften. Der Studiengang „Master of Science in Information Engineering“, der gemeinsam von den Universitäten Twente (Niederlande) und Osnabrück betrieben wird wurde von dieser Arbeitsgruppe initiiert und wird von ihr betrieben. Forschungsschwerpunkte sind die Entwicklung alternativer Suchmaschinen und Rankingmethoden (RDF in Peer-to-Peer-Suchmaschinen, Nachweis vertraulicher Informationsräume in Suchmaschinen, X-Query Netzwerke von Repositorien und deren übergreifendes Retrieval etc.) sowie die Verknüpfung von fachspezifischen und allgemeinen Klassifikationen (Ergebnisse des BMBF-Vorhabens CARMEN).

In 2006 wurde eine Evaluation der Nutzung des OAI-Set Elements in den bei OAI registrierten Data Providern durchgeführt und ein Best-Practice Guide im Rahmen einer Masterarbeit erstellt.

Seit 1996 wird von der Arbeitsgruppe die fachspezifische Mathematik-Suchmaschine MPress betrieben. MPress bietet hierbei ein thematisches Browsing entlang der Fachklassifikation MSC und einen aus den Metadaten generierten Autorenindex. Im Gegensatz zu dem im OA-Netzwerk geplanten Dienst, basiert MPress jedoch auf der Harvest-Technologie und nutzt damit nur automatisch extrahierte Metadaten, nicht OAI-PMH, was zu qualitativ entsprechend schlechteren Resultaten führt.

In den letzten drei Jahren hat sich die Verbesserung der Vernetzung wissenschaftlicher Aktivitäten mit der internationalen Standardisierung im Bereich des Semantic Web als weiterer Schwerpunkt entwickelt. Im Rahmen des vom BMBF geförderten Vorhabens Cashmere-int wurde zusammen mit der SUB-Göttingen ein nationales Portal entwickelt, das helfen soll, den Wissenstransfer bzgl. Standardisierung zu verbessern.

Das ebenfalls BMBF geförderte Vorhaben Math & Industry, das zusammen mit dem Konrad- Zuse-Zentrum für Informationstechnik Berlin betrieben wird, hat dabei die Entwicklung eines Nutzer-orientierten Portals zur Aufgabe, um Mathematik-Aktivitäten eine verbesserte Sichtbarkeit zu bieten.

Ein Mitglied der Arbeitsgruppe gehört dem Gutachterkreis für das DINI-Zertifikat an und ist Gründungsmitglied der DINI Arbeitgruppe Elektronisches Publizieren.

SUB Göttingen

Die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB) ist eine der größten SonderSammelGebiets-Bibliotheken (SSG) in Deutschland und engagiert sich seit Jahren im Bereich des elektronischen Publizierens. Neben der Entwicklung und Etablierung eines eigenen Hochschul-Dokumentenservers hat die SUB Göttingen auch einen Universitätsverlag gegründet, der im Auftrage des Präsidiums der Georg-August-Universität ein Service der Niedersächsischen Staats- und Universitätsbibliothek für Wissenschaftlerinnen und Wissenschaftler ist, die sich der Universität Göttingen verbunden fühlen. Der Verlag arbeitet mit der Zielsetzung, wissenschaftliche Publikationen mit der geringst möglichen Zugangsbeschränkung der Öffentlichkeit zur Verfügung zu stellen und auch solche Publikationen zu ermöglichen, die auf dem kommerziellen Verlagsmarkt nicht veröffentlicht werden können.

Programmatisch ist die Umsetzung des Open Access-Prinzips, also die für Nutzer und Nutzerinnen kosten- und beschränkungsfreie Bereitstellung von Inhalten im Internet.

Die dauerhafte und weltweite Verfügbarkeit der Göttinger Publikationen ist zentrales Anliegen des Universitätsverlages.

Darüber hinaus ist die SUB Göttingen mit ihren zahlreichen Virtuellen Fachbibliotheken, mit zum Teil unterschiedlichen nationalen und internationalen Kooperationspartnern, sehr stark in die technischen und inhaltlichen Entwicklungen von Dokumentenservern eingebunden. So wird zurzeit im Bereich Geowissenschaften das DSpace-System (DSpace digital repository system captures, stores, indexes, preserves, and distributes digital research material) als Dokumenten- und Publikationsserver für die fachwissenschaftliche Community ausgebaut und den speziellen Bedürfnissen der Wissenschaftler angepasst.

Das EU-Projekt Driver wir an der SUB Göttingen inhaltlich koordiniert und an dem DFG Projekt Informationsplattform Open Access ist die SUB ebenfalls beteiligt.

Die DINI Geschäftsstelle ist seit Jahren an der SUB Göttingen angesiedelt und engagiert sich in vielfältiger Hinsicht im Bereich des Elektronischen Publizierens und Open Access.

Ziele und Arbeitsprogramm

Ziele

Strategische Ziele

Das OA-Netzwerk soll Integrationskern der bundesweiten Vorhaben zur Errichtung einer Open Access-Infrastruktur sein. Das Projekt verfolgt dabei zwei wesentliche strategische Ziele:

  1. Es soll einerseits dazu dienen, das Potential, das Open Access innerhalb Deutschlands schon heute hat, aufzuzeigen und erkenntlich zu machen. Dazu sollen die bereits auf vielen Dokumenten- und Publikationsservern (IInstitutionellen Repositorien) verfügbaren Open Access-Publikationen an zentraler Stelle nachgewiesen und auffindbar gemacht werden – und zwar nicht lediglich über eine Volltextsuche und eine gemeinsame Suche in vorhandenen Metadaten, sondern auch über ein einheitliches und übergreifendes Browsing. Daneben soll das OA-Netzwerk als gemeinsame Plattform für die Integration der in den parallel beantragten Projekten „Generierung, Aufbereitung und Kommunikation von Nutzungsstatistiken für elektronisch publizierte Dokumente“ (OA- Nutzungsstatistiken) und „Erschließung von Zitationen in verteilten Open Access Repositories“ (OA-Zitationsanalyse) entwickelten technologischen Lösungen dienen. Dabei soll anhand der in das OA-Netzwerk eingebundenen Institutionellen Repositorien und deren aggregierten Daten die Tragfähigkeit der Technologien veranschaulicht und die Möglichkeiten einer Open Access-Infrastruktur verdeutlicht werden. Das OA-Netzwerk soll einen wesentlichen Beitrag für den Aufbau einer Informations- und Wissensinfrastruktur leisten und gliedert sich damit in die europäischen Aktivitäten in diesem Bereich ein.
  2. Auf der anderen Seite besteht das Ziel des Projekts darin, die praktische Umsetzung des Open Access-Gedankens zu fördern und möglichst viele wissenschaftliche Einrichtungen in Deutschland auf dem Weg zu qualitativ hochwertigen Dokumentenservern zu begleiten. Dabei soll für die Betreiber entsprechender Repositorien in Deutschland sowohl organisatorische als auch technologische Unterstützung geleistet werden. Es sollen auf die einzelnen Zielgruppen (Wissenschaftler, Hochschulleitung, Bibliothek) zugeschnittene Argumentationshilfen für die Entwicklung lokaler Open Access-Strategien und deren praktischer Umsetzung entwickelt werden.

Das OA-Netzwerk soll eine zentrale DINI-Plattform bereitstellen, mit der die Vorzüge des elektronischen Publizierens und von Open Access im Besonderen anhand der entwickelten technologischen Lösungen verdeutlicht werden. Diese Plattform dient damit einerseits als reale Testumgebung für die Entwicklungen, die aus den durch DINI vorgeschlagenen Projekten hervorgehen. So können die im Projekt Zitationsanalyse erstellten Werkzeuge für Autoren und Leser sowie die betrachteten und entwickelten Verfahren zur Zitationsanalyse anhand einer breiteren Basis an Daten und Repositories zum Einsatz gebracht werden. Ebenso sollen auch die Ergebnisse aus dem Projekt OA-Nutzungsstatistiken in die Plattform integriert werden und die Erstellung und Verwendung einer übergreifenden Nutzungsstatistik ermöglichen. Die Plattform bietet den Nutzerzugang zu den durch die DINI-zertifizierten Server bereit gestellten Dokumenten und reichert ihn mit unterschiedlichen Mehrwertdiensten an. Das erfordert unter anderem auch die Einbindung des Open-Acces-Netzwerks in internationale Entwicklungen wie Google Scholar, ISI u.a.

Andererseits lassen sich die prototypischen Entwicklungen durch ihre Einbettung in die DINIPlattform als nützliche Argumentationshilfe für die flächendeckende Etablierung der durch DINI propagierten Standards und Empfehlungen (insbesondere das DINI-Zertifikat) einsetzen, da sie in diesem größeren Zusammenhang erst ihre volle Wirkung entfalten können.

Technologische Ziele

Neben der Verbreitung des Open Access-Gedankens und der verstärkten Entwicklung institutioneller Dokumentenserver, die dem DINI-Zertifikat genügen, verfolgt das Projekt OA-Netzwerk auch mehrere technologische Ziele. Das heißt, abgesehen von der Einbindung der in den anderen Projekten entwickelten Werkzeuge und Verfahren und dem Aufbau einer DINI-Plattform für Open Access-Dokumente sind in dem Projekt auch technologische Entwicklungen geplant.

Retrieval – übergreifende Dokumentensuche

Das Ziel besteht darin, alle DINI-zertifizierten Dokumentenserver und vergleichbaren Dienste virtuell zu vernetzen, um alle in den einzelnen Repositories abgelegten Dokumente an zentraler Stelle nachzuweisen und auffindbar zu machen. Durch die Beschränkung der Datenlieferanten auf solche Dokumentenserver, die ein DINI-Zertifikat besitzen, wird sowohl die inhaltliche Qualität und Relevanz der nachgewiesenen Dokumente wie auch die formale und technische Qualität der Metadaten und Volltexte sichergestellt. Ähnlich wie etwa bei Google Scholar liegt der Fokus dieses Suchdienstes auf wissenschaftlichen Publikationen.

Der Bestand der über die zu implementierende Suchoberfläche nachgewiesenen elektronischen Veröffentlichungen wird sich mit der Zahl der DINI-zertifizierten Dokumentenserver erhöhen und soll mittelfristig – in etwa drei bis fünf Jahren – nahezu den gesamten Bestand wissenschaftlicher Publikationen umfassen, die auf Institutionellen Repositorien innerhalb Deutschlands veröffentlicht wurden.

Grundlage des Suchdienstes ist das OAI-PMH, mit dessen Hilfe die Metadaten von den einzelnen Repositories in regelmäßigen Abständen eingesammelt und in der zentralen Datenbank des OA-Netzwerks gespeichert werden. Um neben der damit bereits ermöglichten Suche innerhalb der Metadaten eine Volltextsuche zu implementieren, werden die – weiterhin lediglich dezentral vorgehaltenen Dokumente – mit einer geeigneten Technologie indexiert. Dafür kommt beispielsweise die Nutzung der Suchmaschine Nutch aus den Aktivitäten im Rahmen von Lucene unter dem Dach der Apache-Entwicklungen infrage. Vielversprechend sind auch die Eigenschaften des flint-Indexes, der in Xapian implementiert ist und beispielsweise dynamische Erweiterungen des Indexes erlaubt. Zu prüfen wäre auch die Einbindung der diesbezüglichen Entwicklungen in die Aktivitäten der europäischen Suchmaschine Quaero.

Dem Nutzer soll zunächst eine einfache Suchmaske mit nur einem Suchfeld (vgl. Google) zur Verfügung gestellt werden, bei der die Suchbegriffe in allen Metadatenfeldern und im Volltextindex gesucht werden. Um die Suche zu verfeinern, bekommt der Nutzer bei Bedarf eine erweiterte Suchmaske angeboten, mithilfe derer er in speziellen Metadatenfeldern recherchieren kann – etwa im Titel, in den Autorennamen oder im Abstract. Im Unterschied zu gebräuchlichen Volltextsuchmaschinen kann jedoch bereits in der einfachen Suche das Ranking – also die relevanzbezogene Sortierung der gefundenen Dokumente – auf die für jedes Dokument vorhandenen Metadaten zurückgeführt werden. Diese liegen in strukturierter Form und gemäß der OAI-PMH-Spezifikation zumindest einheitlich im Format Dublin Core vor.

Darüber hinaus sollen die vorhandenen Metadaten dazu genutzt werden, für gefundene Dokumente eine strukturierte Startseite mit dem Zugang zu den eigentlichen Volltexten sowie diverse Mehrwertdienste anzubieten. Dazu zählen neben einem Export in gängigen Literaturformaten (BibTex, EndNote, …) auch die Bereitstellung von Nutzungsstatistiken und einem Zitationsdienst, Alerting-Dienste, Print on Demand sowie die Verknüpfung mit einem Linkresolver (etwa SFX), um weitere externe Dienste anzubinden.

Browsing – übergreifender Verzeichnisdienst

Neben der weit verbreiteten Möglichkeit, durch die Eingabe entsprechender Suchwörter nach Dokumenten zu recherchieren, soll das OA-Netzwerk auch die Möglichkeit des Browsings bieten. Darunter wird ein Recherche-Einstieg verstanden, der auf der Basis einer oder mehrerer Klassifikationen den direkten Zugang zu den nachgewiesenen Dokumenten erlaubt und zunächst ohne eine nutzerseitige Freitexteingabe auskommt. Vielmehr grenzt ein Nutzer durch das Verfolgen eines Suchpfades die potentielle Ergebnismenge systematisch ein, indem er beispielsweise aus den verfügbaren Fachgebieten das ihn interessierende auswählt – möglicherweise über mehrere Hierarchieebenen – die gefundene Ergebnismenge auf die Dissertationen eingrenzt und sich schließlich lediglich diejenigen Publikationen anzeigen lässt, die in einem bestimmten Zeitraum – beispielsweise im Jahr 2006 – erschienen sind.

Die Vorteile des Browsings gegenüber der Suche liegen vor allem in einem schnellen, einfachen, strukturierten und intuitiven Zugriff auf die einzelnen Dokumente. Außerdem bietet es die Möglichkeit, einfach zu Navigieren und dadurch einen thematischen Überblick zu erhalten, die hierarchische Struktur zu veranschaulichen. Die Nutzer müssen keine Kenntnisse über bestimmtes Fachvokabular besitzen, und der Browsingeinstieg erlaubt die Darstellung der inhaltlichen und formalen Struktur des OA-Netzwerks und der darin eingebundenen Dokumentenserver. Gängige Klassifikationsansätze folgen fachlichen oder formalen Kriterien. Die Möglichkeit des Browsings durch eine vorgegebene Klassifikation (etwa DDC oder RVK) ist bereits erwähnt worden. Formale Kriterien, die sich für die Bereitstellung von Browsingfunktionen eignen, sind das Erscheinungsdatum, die Namen der Autoren, die Publikationsart, die Sprache, in der die Publikationen geschrieben wurden, sowie Verlage, Herausgeber sowie die Repositories, aus denen die Dokumente stammen.

Die unterschiedlichen Klassifikationsmöglichkeiten lassen sich sowohl auf der ersten Browsingebene anbieten. Sie können aber auch beliebig miteinander kombiniert werden, wie dies im oben erwähnten Beispiel bereits angedeutet wurde. Darüber hinaus besteht jederzeit die Möglichkeit, einen oder mehrere Schritte zurück zu gehen und so die Ergebnismenge wieder zu vergrößern und in einer anderen Richtung weiterzusuchen. Schließlich soll der vorgestellte Browsingeinstieg durch eine einfache Freitextsuche ergänzt werden, die es dem Nutzer erlaubt, im aktuellen Kontext – also innerhalb der durch die gewählte Position im Browsingbaum definierte Ergebnismenge – zu recherchieren und somit die Vorteile beider Rechercheansätze nutzen zu können.

Die Implementierung des Browsingeinstiegs – insbesondere des fachlichen – erfordert die Zulieferung klassifizierter Metadaten aus den Dokumentenservern. Hierbei kann zunächst auf die auf der Dewey Decimal Classification (DDC) basierenden DDC-Sachgruppen in deutscher und englischer Sprache zurückgegriffen werden, da diese – zumindest in ihrer obersten Hierarchiestufe – Voraussetzung für die Vergabe des DINI-Zertifikats 2007 ist. Die Nutzung der DDC-Sachgruppen ist unter Angabe des Copyright-Vermerks von OCLC gestattet. Darüber hinaus ist die Einbindung tiefer strukturierter Fachklassifikationen vorgesehen (z. B. MSC, PACS) – dabei soll sich die Browsingtiefe dynamisch der Menge der passenden Dokumente anpassen: Gebiete mit vielen Publikationen werden damit entsprechend feiner strukturiert. Voraussetzung dafür ist allerdings, dass die einzelnen Dokumentenserver entsprechende Klassifikationssysteme verwenden und die Deskriptoren über OAI zur Verfügung stellen. Es ist geplant, hierbei auf andere nationale Entwicklungen wie beispielsweise jene innerhalb von Vascoda, zurückzugreifen und entsprechende Lösungen nachzunutzen. Auch für die anderen Browsingkriterien sind entsprechende normierte und ggf. normalisierte Metadaten erforderlich, die dem OA-Netzwerk über OAI bereitgestellt werden.

OA-Netzwerk als Plattform

Die innerhalb des hier beschriebenen Projekts entwickelten Softwarekomponenten und die darauf aufbauenden Dienste sollen in eine übergreifende Informationsplattform eingebunden werden, in die auch weitere Dienste integriert werden sollen. Dazu zählen insbesondere die in den durch DINI initiierten Projekten OA-Nutzungsstatistik und OA-Zitationsanalyse implementierten Softwarekomponenten. Sämtliche in die Plattform integrierten Dienste sollen transparent in eine Nutzungsoberfläche eingebunden werden, die sich intuitiv bedienen lässt.


Abbildung 1 zeigt das prinzipielle Zusammenwirken der in den unterschiedlichen Projekten entwickelten Dienste, die über eine integrierte Nutzungsschnittstelle nach außen angeboten werden. Aufbauend auf den durch DINI-zertifizierte Repositories gelieferten Daten zu den dort vorgehaltenen Publikationen – insbesondere beschreibende und technische Metadaten, Nutzungsdaten sowie die Volltexte selbst – werden die Dienste auf einem zentralen Server aufgesetzt. Dazu zählen die übergreifende Analyse von Nutzungsdaten (Projekt OA-Nutzungsstatistik), der Aufbau eines Zitationsnetzwerks (Projekt OA-Zitationsanalyse), und die im vorliegenden Antrag beschrieben Recherchedienste (Projekt OA-Netzwerk) – insbesondere die Suche in den Metadaten und die Volltextsuche sowie ein übergreifendes Browsing nach unterschiedlichen Kategorien. Wie in Abbildung 1 dargestellt, sollen alle Dienste über eine einheitliche Nutzungsstelle angeboten und miteinander verschränkt werden. Beispielsweise lassen sich für durch eine Recherche gefundene Publikationen nicht nur deren Metadaten und der Volltext anzeigen, sondern auch eine Nutzungsstatistik und Verweise auf Publikationen, die die Publikation zitieren oder von dieser zitiert werden. Ebenso ist es vorstellbar, bestimmte Aspekte aus der Nutzungsstatistik oder die Anzahl von Zitationen als Parameter in das Ranking der Recherchefunktion einfließen zu lassen.

Insgesamt soll die Plattform offen für die Integration weiterer Dienste sein, die nicht unmittelbar innerhalb dieses Projekts bzw. im Kontext der anderen beiden genannten Vorhaben entstehen. So ist unter anderem vorgesehen, einen Print-on-Demand-Dienst wie etwa ProPrint als zusätzlichen Service in die Plattform einzubinden.

Die Plattform soll auch aufseiten der Repositories offen sein und sich nicht auf DINIzertifizierte Dokumentenserver beschränken. Vorgesehen ist, auch andere Repositories einzubinden, die die Anforderungen des DINI-Zertifikats (noch) nicht erfüllen, bestimmte Voraussetzungen jedoch trotzdem erfüllen. Für Dokumente aus derartigen Repositories, die innerhalb des OA-Netzwerks nachgewiesen werden, sind entsprechend nicht alle installierten Dienste verfügbar – Grundfunktionalitäten wie etwa eine einfache Recherche stehen aber trotzdem bereit.

Nachhaltigkeit und Nachnutzbarkeit

Der innerhalb der Projektlaufzeit entwickelte Dienst soll auch über die Förderungsphase hinaus erhalten bleiben und zur Verfügung stehen. Dabei wird die Akzeptanz dieser Plattform in hohem Maße von den Qualitäten und Quantitäten der eingebundenen Institutionellen Repositorien abhängen sowie der inhaltlichen und technischen fortlaufenden Pflege der integrierten Mehrwert-Dienste. Daher ist es unabdingbar, dass auch nach Ablauf der Projektlaufzeit, Institutionelle Repositorien und andere digitale Sammlungen eingebunden werden können und die Nachhaltigkeit der technischen Infrastruktur gesichert werden kann. Dazu bedarf es fortwährender technischer und inhaltlicher Unterstützung für die neuen Partner. Auch eine Qualitätskontrolle des Dienstes wird von Zeit zu Zeit nötig sein (z. B. Erreichbarkeit der einzelnen Dokumente über Persistent Identifier), um den Nutzern (hauptsächlich den Wissenschaftlern) ein hohes Maß an Qualität zu garantieren.

Nur eine dauerhafte Überführung der Plattform mit den eingebundenen Diensten in eine nachhaltige Organisationsstruktur mit dauerhaftem Betrieb kann sicherstellen, dass der Service bei den Wissenschaftlern die nötige Akzeptanz und Nutzung findet. Damit wäre ein Meilenstein in der Verbreitung, Akzeptanz und Umsetzung des Open Access-Gedankens erreicht.

Das Organisationsmodell wird die unterschiedlichen Interessen der Zielgruppen (Betreiber von Dokumentenserver und Nutzer des Retrievaldienstes) adäquat berücksichtigen.

Selbstverständlich wird DINI als Dachorganisation mit seiner Infrastruktur und Ressourcen einen vertrauensvollen und nachhaltigen Rahmen bieten können. Allerdings muss detailliert geklärt werden, welche Verantwortlichkeiten konkret von welchen Gremien, Partnern oder Institutionen übernommen werden können und für welche Bereiche neue Wege und Geschäftsmodelle gesucht werden müssen. Ein mögliches Geschäftsmodell könnte analog zu der Vergabe der DINI-Zertifikate entwickelt, in eine DINI-Mitgliedschaft integriert oder unabhängig von bereits bei DINI etablierten Methoden aufgebaut werden.

Arbeitsprogramm

Konzeption des Retrieval-Dienstes und der OA-Plattform

Um die Erfordernisse, die an den im Abschnitt 3.1 beschriebenen Retrieval-Dienst genau zu definieren und dabei insbesondere auch die nutzerseitigen Anforderungen zu berücksichtigen, ist die Erarbeitung eines detaillierten Konzepts notwendig. Es soll beschreiben, welche Funktionen die Retrieval-Oberfläche bereitstellen soll und wie die skizzierten Rechercheeinstiege ineinander greifen sollen (Frontend) und welche technologischen Entwicklungen und ggf. zusätzlichen Vereinbarungen mit den einzelnen Dokumentenservern dazu im Einzelnen notwendig sind (Backend). Das Konzept soll Use Cases für die Nutzung von Frontend und Backend enthalten und den Workflow beschreiben, der für das Einsammeln, Indexieren, Aufbereiten und Bereitstellen der Metadaten und Dokumente zur Anwendung kommen soll. Dabei ist auch die Erkennung und Behandlung von Dubletten sowie unterschiedlichen Versionen einer Publikation zu berücksichtigen. Daraus sollen notwendige Voraussetzungen abgeleitet werden, die Dokumentenserver zu erfüllen haben, die in das OA-Netzwerk integriert werden sollen. Wie bereits erwähnt, soll das DINI-Zertifikat in seiner aktuellen Fassung dabei als Richtschnur dienen. Um bestimmte Funktionen im Bereich des übergreifenden Verzeichnisdienstes implementieren zu können, kann es erforderlich werden, mit den Dokumentenservern zusätzliche inhaltliche Verabredungen zu deren OAI-Schnittstellen zu treffen, die die Art und Beschaffenheit der ausgelieferten Metadaten betreffen. Diese zusätzlichen Anforderungen an die OAI-Data Provider sind hier ggf. zu definieren.

Um die nutzbare Datenbasis nicht ausschließlich auf Dokumente einzuschränken, die über DINI-zertifizierte Dokumentenserver bereitgestellt werden, soll ein verminderter Funktionsumfang für den Retrievaldienst definiert werden, der auch für IInstitutionellen Repositorien verfügbar ist, die das DINI-Zertifikat nicht oder nicht vollständig erfüllen. Auch dafür sind die Voraussetzungen an die Dokumentenserver zu beschreiben.

Schließlich soll das Konzept auch aufzeigen, wie die Einbindung der technologischen Ergebnisse aus den beiden anderen im DINI-Kontext vorgeschlagenen Projekten in die Plattform des OA-Netzwerks realisiert werden soll. Es sind insbesondere Vereinbarungen mit den Verantwortlichen dieser Projekte über Schnittstellen und den detaillierten Funktionsumfang der entwickelten Module zu treffen und zu dokumentieren.

Alle innerhalb dieses und der anderen beiden durch DINI initiierten Projekte implementierten Dienste sollen auf einem gemeinsamen Server installiert werden, der im Computer- und Medienservice der Humboldt-Universität zu Berlin betrieben wird. Zur Erhöhung der Stabilität und Verfügbarkeit des durch DINI bereitgestellten Gesamtangebots soll ergänzend zum vorhandenen DINI-Server ein weiterer leistungsfähiger Server in Betrieb genommen werden. Das zu erstellende Konzept wird sich auch mit detaillierten Anforderungen an diesen Server und die entsprechende Architektur befassen.

OAI-Service Provider / Harvester

Als Voraussetzung für den übergreifenden Retrieval- und Verzeichnisdienst ist die clientseitige Implementierung des OAI-PMH erforderlich – das heißt es ist ein Harvester zu realisieren, der im Sinne des Protokolls die Funktion des OAI-Service Providers übernimmt und dazu in der Lage ist, OAI-kompatible Dokumentenserver abzufragen und die Metadaten über dort vorgehaltene Publikationen einzusammeln. Als Grundlage soll der an der Humboldt-Universität bereits prototypisch implementierte OAI-Service Provider dienen.

Neben der Implementierung des eigentlichen Protokolls (Absetzen von html-Anfragen, Parsen und Interpretieren der XML-kodierten Antworten, Flusskontrolle) gehören zu diesem Arbeitspaket

  • die Erarbeitung und Umsetzung eines Datenmodells zur Speicherung der eingesammelten Metadaten sowie der zusätzlichen Verwaltungsinformationen zu den einzelnen OAI-Data Providern und den Harvesting-Vorgängen,
  • die Realisierung eines webbasierten Administrationswerkzeuges, das die Auswahl, Einbindung und Überwachung von OAI-Data Providern erlaubt und eine automatische Erkennung und Behandlung auftretender Protokoll-, XML-, Kodierungs- und Netzwerkfehler ermöglicht sowie erkannte Fehler protokolliert und ggf. an die zuständigen Verantwortlichen der OAI-Data Provider sowie an die Administratoren des OAI-Service Providers weiter leitet,
  • die Einbindung eines Schedulers in die Administrationsoberfläche, der es erlaubt, detaillierte Pläne zu erstellen, nach denen die einzelnen OAI-Data Provider abgefragt und die Metadaten aktualisiert werden sollen,
  • eine auf bekannten Problemfällen und Heuristiken beruhende Aufbereitung, Bereinigung und Normalisierung der erfassten Metadaten,
  • die Einbindung eines Mechanismus zur Erkennung von Dubletten bzw. unterschiedlichen Versionen einer Veröffentlichung, die beispielsweise aus unterschiedlichen Dokumentenservern stammen.

Volltextsuche

Aufbauend auf den über die OAI-Schnittstelle der einzelnen Dokumentenserver erfassten Metadaten soll eine Volltextsuche implementiert werden. Dazu werden die in den Metadaten enthaltenen URLs ausgewertet, die entsprechenden Dateien über HTTP, HTTPS bzw. FTP geladen und anschließend mithilfe einer entsprechenden Suchmaschinentechnologie indexiert.

Zunächst ist zu entscheiden, welche Software dafür zum Einsatz kommen soll. Hier bietet sich insbesondere die Suchmaschine Nutch aus den Aktivitäten im Rahmen von Lucene unter dem Dach der Apache-Entwicklungen an. Weiterhin sind die Entwicklungen unter xapian. org interessant, um einen angepassten Suchdienst aufzubauen.

Abgesehen von der Indexierung der Volltexte soll die Analyse der Dateien auch dazu verwendet werden, die über OAI ausgelieferten Metadaten mit technischen Informationen (etwa die Dateigröße, die Version des Dateiformats, die Anzahl der zu dem Dokument gehörigen Dateien) anzureichern.

Darüber hinaus sollen für alle behandelten Dateien Prüfsummen (Hashwerte) gebildet und abgelegt werden, um Änderungen von Dateien aufzuspüren. Mit dieser quasi eindeutigen Identifikation von Dokumenten soll auch eine Dublettenprüfung auf der Ebene der Volltexte durchgeführt werden, um über unterschiedliche Dokumentenserver angebotene identische Publikation zu erkennen. Dies ist nicht nur für die die Präsentation von Suchergebnissen interessant, sondern lässt sich auch für die Zusammenführung von Nutzungsstatistiken und bei der Zitationsanalyse einsetzen.

Nach bisherigem Erkenntnisstand ist es nicht vorgesehen, die für die Indexierung und die Analyse temporär gespeicherten Dateien dauerhaft innerhalb des zentralen Servers vorzuhalten. Lediglich die Indexlisten, die ermittelten technischen Metadaten sowie die Hashwerte werden in einer entsprechenden Datenbank abgelegt. Die zwischenzeitlich duplizierten Dateien werden im Anschluss an Indexierung und Analyse wieder aus dem System gelöscht.

Rechercheoberfläche

Das Kernstück des Projekts ist die integrierte Rechercheoberfläche, die unter anderem der Demonstration der Möglichkeiten dienen soll, die sich aus der konsequenten Verwendung von Open Access und der Umsetzung der im DINI-Zertifikat beschriebenen Richtlinien ergeben.

Zunächst ist ein Sucheinstieg zu implementieren, der dem Nutzer ein einzelnes Suchfeld anbietet und mit dem sowohl die strukturiert abgelegten Metadaten als auch der Volltextindex parallel durchsucht werden können.

Bei der Präsentation der gefundenen Ergebnisse kommt ein Ranking-Mechanismus zum Einsatz, in den zunächst heuristische Methoden einfließen, die sich auf die statischen Informationen stützen (d.h. beispielsweise auf die Häufigkeit des Auftretens und die Position von Suchwörtern in einem Dokument und in den dazugehörigen Metadaten und auf den kontextuellen Zusammenhang mehrerer gesuchter Wörter in gefundenen Dokumenten). In einem späteren Schritt sollen auch dynamisch erzeugte und durch die Nutzung der Ergebnisse aus den beiden durch die DINI vorgeschlagenen Projekten zur Zitationsanalyse und zur Nutzungsstatistik gewonnene Daten in das Ranking mit einfließen. Zitationen lassen sich beispielsweise mit dem im OA-Zitationsanalyse Vorhaben entwickelten Verfahren als Link zwischen zwei Artikeln im Sinne des Page-Rank-Algorithmus verwenden. Zu diesem Zweck wird der Page-Rank-Algorithmus implementiert und der durch die Zitationsanalyse bestimmte Page-Rank-Score in das Ranking einbezogen. Publikationen, die auf ihren ursprünglichen Dokumentenservern häufig genutzt wurden bzw. auch über das OA-Netzwerk häufig gefunden und aufgerufen wurden, erhalten eine höhere Gewichtung. Dasselbe gilt für Veröffentlichungen, die in anderen Publikationen häufig zitiert worden sind. Bei der Entwicklung bzw. Auswahl eines geeigneten Ranking-Verfahrens soll auf die Ergebnisse innerhalb des Projekts Vascoda auf diesem Gebiet zurückgegriffen werden.

Neben der Freitextsuche soll ein übergreifender Verzeichnisdienst (Browsing) implementiert werden, der dem Nutzer das komfortable Auffinden von Publikation erlaubt, ohne dabei über eine detaillierte Kenntnis des Fachvokabulars zu verfügen, die für eine Freitextsuche oft erforderlich ist. Das Browsing soll nach fachlichen, bibliografischen (Einrichtung, Dokumentenserver, Autornamen, Veröffentlichungsdatum) und formalen (Publikationsart, Begutachtungsstatus) Kategorien möglich sein, die ggf. auch miteinander kombiniert werden können. Die einzelnen Browsingzweige spannen einen Baum auf, der an jeder Stelle eine bestimmte Suchanfrage repräsentiert. Je weiter sich der Benutzer in dem Suchbaum von der Wurzel weg bewegt, desto mehr Bedingungen enthält die intern gestellte Suchanfrage und desto kleiner ist der potentielle Ergebnismenge („drill-down“). Die intuitive Nutzbarkeit dieses Rechercheeinstiegs soll durch eine anschauliche Navigation unterstützt werden, die auch die genannte Baumstruktur abbildet.

Um beide Retrievalansätze (Freitextsuche und Browsing) miteinander zu verbinden, soll an jeder Browsingposition zusätzlich ein Suchfeld eingeblendet werden. Mit dessen Hilfe kann kontextabhängig in der durch die Position im Suchraum bestimmten potentiellen Ergebnismenge recherchiert werden.

Die Ergebnislisten werden mithilfe der zu jedem Dokument vorhanden Metadaten in strukturierter Form ausgegeben. Zu jedem Treffer kann außerdem eine Einstiegsseite erzeugt werden, die neben den übersichtlich aufbereiteten Metadaten, einem Zitiervorschlag und Links zu den Volltextdokumenten auch Verweise zu den weiteren verfügbaren Diensten enthält.

Dazu zählt der Export einzelner Metadatensätze oder ganzer Ergebnislisten in gängige Literaturformate (z.B. BibTex, EndNote, Reference Manager), die Anbindung an einen Linkresolver (SFX) sowie die Bereitstellung von Nutzungsstatistiken und einer Zitationsanalyse. Zusätzlich werden in die Plattform ein E-Mail-basierter Alerting-Dienst sowie RSS oder Atoms Newsfeeds integriert. Auch die Anbindung an ein Print-On-Demand-System ist vorgesehen, um die Herstellung hochwertiger Druckexemplare aus PDF-Dateien anbieten zu können.

Sollten Dubletten einzelner Publikationen vorhanden sein, die beispielsweise aus unterschiedlichen Dokumentenservern stammen, ist dies bei der Präsentation entsprechend zu berücksichtigen und kenntlich zu machen. Dasselbe gilt für den Fall, dass Veröffentlichungen in unterschiedlichen Versionen vorliegen oder in einer anderen Relation zueinander stehen (z. B. Zugehörigkeit).


Plattform und Integration

Das OA-Netzwerk zielt auf eine für die Nutzer vollkommen transparente Einbindung vorhandener und parallel entwickelter Dienste in eine übergreifende Informationsplattform. Entwickelt werden soll eine übersichtliche, intuitiv bedienbare und erweiterbare Nutzeroberfläche, die die Nutzer von Ihrer Fragestellung hin zu den gesuchten Open–Access Volltexten leitet. Implementiert werden sollen dabei ein such- und ein Browsing-fokussierter Navigationsstrang, die zu einem gewissen Grad einander überlappen können, wie Abbildung 2 zeigt. So kann beispielsweise die Suche auf einzelne Fachgebiete beschränkt werden oder die Trefferlisten nach Fachgebieten sortiert angezeigt werden, weil die OAI-Data Provider der eingebundenen Institutionellen Repositorien gemäß DINI-Zertifikat Klassifikationsmerkmale liefern. Das Ranking der Ergebnisanzeige wird dabei aufgrund der unterschiedlich tief erschließenden Metadaten nicht trivial zu bestimmen sein. Durch Einbindung der – im parallel beantragten Vorhaben OA-Zitationsanalyse (DOARC) entwickelten – Zitationsanalyse kann ein dem Page-Rank verwandtes Verfahren genutzt werden, das jedoch um weitere Gewichtungsfaktoren anzureichern ist (Treffer in den Titeln und Abstracts, Alter der Dokumente, Zugriffstatistik [ebenfalls in einem parallel beantragten Vorhaben zu entwickeln] etc.). Weitere zu implementierende Dienste können ein Printing-on-Demand Dienst (z. B. ProPrint) oder ein Export der Trefferlisten in BibTex und Endnote sein.

Alle in das Gesamtsystem einzubindenden Dienste sollen auf einem gemeinsamen Server betrieben werden, der im Computer- und Medienservice der Humboldt-Universität aufgestellt und dort auch über die Projektlaufzeit hinaus hardware- und softwareseitig gewartet und gepflegt werden soll. Durch die Installation aller Dienste auf einem einzelnen technischen System wird unter anderem eine optimale Performance erreicht. Alternativ können aber weniger zeitkritische Dienste, die nicht unmittelbar als Ergebnisse eines der drei Projekte hervorgehen, auch mittels Webservices (SOAP oder Rest) von externen Servern gekoppelt werden. Hierzu sind beispielsweise in DRIVER spezifische Schnittstellen vorgesehen. Die Plattform soll zweisprachig (deutsch und englisch) entwickelt werden und eine Option zur Implementierung weiterer Sprachen offen halten.

Unterstützung von Institutionellen Repositorien

Wie im Abschnitt 3.1.1 (Strategische Ziele) beschrieben, zielt das Projekt OA-Netzwerk nicht nur auf die Entwicklung einer Retrievaloberfläche und die prototypische Demonstration der Möglichkeiten ab, die sich aus Open Access ergeben. Gegenstand des Projektes ist es auch, wissenschaftliche Einrichtungen beim Aufbau von Dokumentenservern zu unterstützen. Dabei ist insbesondere daran zu denken, die oftmals bereits existierenden Institutionellen Repositorien den Erfordernissen anzupassen, die sich aus dem DINI-Zertifikat ergeben.

Auch wenn inzwischen nahezu jede deutsche Universität und viele Fachhochschulen über spezielle Server verfügen, auf denen wissenschaftliche Publikationen veröffentlicht und bereit gestellt werden, liegt die Zahl derjenigen Dokumentenserver, die das DINI-Zertifikat besitzen, bisher erst bei knapp 20.

Die Ursachen dafür dürften unterschiedlicher Natur sein. Zum einen werden von vielen Dokumentenservern nicht alle der für die Erteilung des DINI-Zertifikats geforderten Kriterien erfüllt – dies kann sowohl technologische als auch organisatorische Aspekte beinhalten. Zum anderen ist die Sensibilität für die Themen, die das DINI-Zertifikat im Zusammenhang mit dem Elektronischen Publizieren aufwirft, sicherlich nicht bei allen Betreibern von Institutionellen Repositorien sehr ausgeprägt. Entsprechend ist der Anreiz, sich überhaupt um die Erfüllung der Kriterien zu bemühen und das DINI-Zertifikat zu erlangen, vielfach nicht gegeben.

Aus der Perspektive der Nutzer, also im Hinblick auf zusätzliche Funktionalitäten und die erhöhte Sichtbarkeit, einen solchen Anreiz zu stimulieren, ist das Ziel der in den vorangegangen Arbeitspaketen beschriebenen Aktivitäten. In diesem Arbeitspaket geht es darum, Betreiber von Dokumentenservern für die im DINI-Zertifikat formulierten Kriterien zu sensibilisieren – mit der Zielstellung, den eigenen Dokumentenserver auf diese Anforderungen auszurichten und das DINI-Zertifikat zu beantragen.

Dazu soll im ersten Schritt eine Befragung der Betreiber durchgeführt werden, um die einzelnen Gründe dafür zu ermitteln, dass für die meisten Dokumentenserver bisher kein Antrag auf Erteilung des DINI-Zertifikats gestellt worden ist.

Im weiteren Verlauf soll eine Handreichung erarbeitet werden, die praktische Hinweise auf dem Weg zum DINI-Zertifikat gibt und besonders auf immer wieder auftretende Probleme eingeht, häufig gestellte Fragen beantwortet und Lösungen für einzelne Anforderungen aufzeigt. Dabei sollen auf häufig verwendete Softwarelösungen für Dokumentenserver eingegangen werden und die dort jeweils spezifischen Problemstellungen aus technischer und organisatorischer Sicht beleuchtet werden.

In die geplante Handreichung sollen auch Empfehlungen und ggf. zusätzliche Anforderungen Eingang finden, die im DINI-Zertifikat selbst nicht enthalten sind, deren Einhaltung sich aber für die Implementierung der Retrievalsoftware des OA-Netzwerks als notwendig erweist. Dieser Teil wird als Erweiterung der bereits existierenden DINI-Empfehlungen für die inhaltliche Gestaltung der OAI-Schnittstelle erstellt und zielt darauf ab, die entwickelten Dienste – insbesondere den übergreifenden Verzeichnisdienst – in vollem Umfang anbieten zu können.

Es soll gemeinsam mit den anderen Mitgliedern der Arbeitsgruppe Elektronisches Publizieren der DINI erörtert werden, welche der innerhalb des Projekts definierten Erweiterungen in eine nächste Version des DINI-Zertifikats einfließen sollen bzw. wie mit den zusätzlichen Empfehlungen und Ergänzungen umzugehen ist.

Für die Dauer der Projektlaufzeit – insbesondere im zweiten Jahr – soll für Betreiber von Dokumentenservern auch eine praktische Unterstützung angeboten werden. Dies geschieht in der Regel in Form eines technischen Supports bzw. einer Beratung zu organisatorischen Fragen per E-Mail und Telefon. In Ausnahmen ist auch an eine kurzzeitige technologische Unterstützung vor Ort gedacht.

Im letzten Viertel des Projektzeitraums soll ein Workshop für Betreiber von Dokumentenservern stattfinden, auf dem die Ergebnisse des OA-Netzwerks präsentiert werden, einzelne Vertreter von Institutionellen Repositorien über ihre spezifischen Erfahrungen und Probleme berichten sowie nochmals eine Marketingkampagne für das DINI-Zertifikat gestartet werden soll.

Nachhaltige Organisationsstruktur und Geschäftsmodell

Ziel dieses Arbeitspaketes ist es, eine dauerhafte Organisationsstruktur und ein nachhaltiges Geschäftsmodell für die Plattform mit ihren Inhalten und den technischen Diensten (Nutzungsstatistiken etc.) zu entwickeln. Dabei müssen nicht nur aktuelle, sondern auch zukünftige Partner mit ihren Institutionellen Repositorien

und deren Inhalten berücksichtigt werden. In diesem Zusammenhang werden auch die Schulungs- und Beratungsangebote wichtig sein, die auch nach Ablauf der Förderphase angeboten werden sollen.

Auch wenn DINI mit der gesamten Infrastruktur den nötigen Rahmen bieten kann, so muss im Einzelnen geklärt werden, welche Verantwortungsbereiche von welchen Gremien (z.B. Gutachter, Vorstand, Arbeitsgruppen), DINI Partnern und/oder Institutionen übernommen werden können. Als Basis dient ein Geschäftsmodell, das zum Beispiel auch nach Vorbild des Zertifizierungsverfahrens von DINI entwickelt werden kann.


Projektleitung, Koordination und internationale Vernetzung

Die Projektleitung für das OA-Netzwerk liegt an der Humboldt-Universität zu Berlin. Hier werden die Arbeiten der einzelnen Projektteilnehmer miteinander vernetzt und koordiniert. Die Projektleitung ist für die Erstellung eines detaillierten Arbeitsplans, die Festlegung einzelner Arbeitsschritte und für die Überprüfung der vereinbarten Zwischenziele verantwortlich. Außerdem liegt die Organisation und Durchführung regelmäßiger Projekttreffen bzw. Videokonferenzen in ihrer Hand.

Ein wichtiger Bereich in diesem Arbeitspaket stellt außerdem die internationale Vernetzung, die auch die Arbeiten in den anderen durch DINI getragenen DFG-Projekte betrifft, dar. Dieser Bereich wird durch die SUB Göttingen verantwortet. Dazu gehört die übergreifende Koordinierung bzw. Unterstützung bei den internationalen Kooperationen und Kontakten, die für eine erfolgreiche Bearbeitung der Arbeitsinhalte in allen Projekten nötig sind und die Abstimmung mit europäischen und internationalen Entwicklungen. Ein koordiniertes und gemeinsames Vorgehen bei der Organisation und Durchführung von DINI-Workshops fällt ebenfalls in diesen Bereich. Auch eine enge Abstimmung mit verwandten nationalen (z.B. DFG-Projekt Informationsplattform Open Access) und internationalen (z.B. EU-Projekt DRIVER) Projekten und Initiativen ist eine Aufgabe dieses Arbeitspaketes.

Der Wissenstransfer erfolgt dabei in beide Richtungen: Auf der einen Seite werden aktuelle Entwicklungen aus anderen Ländern in Deutschland bekannt, so dass sie bei den konkreten Arbeitsinhalten in den durch DINI initiierten DFG-Projekten berücksichtigt werden können. Auf der anderen Seite soll durch internationale Workshops in Deutschland und gemeinsame Veranstaltungen zum Beispiel im Rahmen von Knowledge Exchange auf Ergebnisse und Dienste in Deutschland aufmerksam gemacht werden. Eine Reihe von Workshops und Konferenzen dient dabei dem regelmäßigen Austausch.