Zum Hauptinhalt springen

Abstracts

Publikation von Forschungsdaten – von Schreibtischschubladen, Bibliotheken und Verlagen

Sünje Dallmeier-Tiessen, Helmholtz Gemeinschaft

Forschungsdaten werden meist mit einem hohen intellektuellen, technischen und finanziellen Aufwand produziert. Darüber hinaus sind viele Forschungsdaten einzigartig und können nicht wieder reproduziert werden. Es ist kein Geheimnis, dass viele Forschungsdaten nicht angemessen archiviert werden und einer potentiellen Nachnutzung somit nicht zur Verfügung stehen.

Neue Informationstechnologien ermöglichen heutzutage verschiedene innovative Arten der Bereitstellung von Forschungsdaten. Institutionen, wie Bibliotheken, Rechenzentren und Verlage übernehmen neue und alte Rollen im Umgang mit Forschungsdaten, meist in enger Kooperation mit der Wissenschaft. Die Datenbibliothek Pangaea und das Open Access Journal Earth System Science Data sind zwei Beispiele, bei denen diese Akteure erfolgreich zusammenarbeiten.

Dieser Blick in die Praxis gibt einen Überblick über aktuelle Entwicklungen in der Publikation von Forschungsdaten und demonstriert an exemplarischen Pilotprojekten, dass die Archivierung von Forschungsdaten nicht in der Schreibtischschublade enden muss.

Zur Person:
Sünje Dallmeier-Tiessen: Studium der Geowissenschaften an der Universität Bremen, Vrije Universiteit Amsterdam und University of Southampton. Anschließend Forschungsaktivitäten im Bereich der Klimaforschung (u. a. am Potsdam-Institut für Klimafolgenforschung – PIK). Darauf folgend Tätigkeit als Journal Manager in einem STM-Verlag. Seit 2008 wissenschaftliche Mitarbeiterin im Helmholtz Open Access Projekt. Schwerpunkt ihrer Tätigkeit: Umgang mit  Forschungsdaten.
Mitglied im Arbeitskreis Open Access der Helmholtz-Gemeinschaft und im Multiplikatoren-Netzwerk oa-net-work der Informationsplattform open-access.net.

 

eSciDoc als Plattform für die Wissenschaft – Anwendungen und Szenarien

Malte Dreyer, Leiter Forschung und Entwicklung MPDL

eSciDoc ist ein gemeinsames Projekt der Max-Planck-Gesellschaft und FIZ Karlsruhe, gefördert vom Bundesministerium für Bildung und Forschung (BMBF). Im Rahmen des Projekts wurde eine multidisziplinäre und nachnutzbare wissenschaftliche Arbeitsumgebung (e-Research-Infrastruktur) aufgebaut, die eine durchgängige, computer- und netzgestützte Arbeitsweise erlaubt. Sämtliche Komponenten stehen unter einer Open Source Lizenz zur freien Verfügung. Dabei berücksichtigt eSciDoc nicht nur publizierte Ergebnisse (z. B. in Form wissenschaftlicher Artikel), sondern auch Forschungs-/Primär-Daten mit ihren vielfältigen Dateiformaten. eSciDoc-Services verwalten, visualisieren und analysieren Daten, organisieren Abläufe, berücksichtigen komplexe Zugriffsrechte, unterstützen die Teamarbeit und stellen Schnittstellen zu anwenderspezifischen Applikationen bereit. Auch Aspekte der Langzeitarchivierung finden Beachtung.

Basierend auf dieser Infrastruktur entwickelt die MPDL ein wachsendes Set an Services und Anwendungen, die für unterschiedliche Forschungsdaten, u.a. Publikationsdaten, in der MPG eingesetzt werden. Neben einer zentralen Anwendung zum Management von Publikationsdaten werden Lösungen im Bereich von Photos, zur Arbeit mit Digitalisaten sowie für Fragestellungen aus dem linguistischen Bereich bearbeitet. Der Beitrag stellt die bisherigen Ausgangsszenarien sowie die erstellten Solutions in Beispielen vor und gibt einen Ausblick auf die weitere Entwicklung.

Zur Person:
Malte Dreyer ist Leiter der Abteilung für eResearch Development and Services innerhalb der 2007 gegründeten Max Planck Digital Library. Die Abteilung entwirft und entwickelt Software-Infrastruktur und Anwendungen im Bereich wissenschaftlicher Information zum Einsatz in den Max-Planck-Instituten.

 

Prof. Dr. Stefan Hornbostel:

  • Sozialwissenschaftliches Studium an der Georg-August-Universität Göttingen (1975 - 1982) 
  • Wiss. Mitarbeiter im Wissenschaftlichen Zentrum für Berufs- und Hochschulforschung der Universität Kassel (1984 - 1986) 
  • Wiss. Mitarbeiter am Forschungsinstitut für Soziologie an der Universität zu Köln (1987 - 1990) 
  • Auslandsaufenthalt in Barcelona (1991 - 1992) 
  • Wiss. Mitarbeiter am Institut für Soziologie der Friedrich-Schiller-Universität Jena (1993 - 1995) 
  • Promotion an der Freien Universität Berlin (1995) 
  • Wiss. Assistent am Institut für Soziologie der FSU (1996 - 1998) 
  • Beurlaubung als Referent an das CHE Centrum für Hochschulentwicklung
    (1998 - 2000) 
  • Wissenschaftlicher Assistent am Institut für Soziologie der FSU (2000 - 2003) 
  • Professur am Institut für Soziologie der Universität Dortmund (2004 - 2005) 
  • Professur am Institut für Sozialwissenschaften der Humboldt Universität zu Berlin (ab 2005) 
  • Leitung des IFQ - Institut für Forschungsinformation und Qualitätssicherung, Bonn (ab 2005)

D-Grid – Hype und Realität

Prof. Dr. Ulrich Lang, Direktor des Regionalen Rechenzentrums der Universität zu Köln

Die D-Grid Initiative des BMBF ist inzwischen in ihre dritte Förderrunde eingetreten. Etwa 100 Millionen Euro wurden in Projekte und Sonderinvestiitonen für den Infrastrukturausbau investiert. In einem umfassenden Ansatz werden mehrere sich ergänzende Ziele verfolgt.  Eine Reihe von Projekten ist auf die Bildung von Communities in bestimmten Fachdisziplinen ausgerichtet, wobei die Abdeckung mit Klimavorhersagen, Hochenergiephysik, Astrophysik, Finanzwesen, Ingenieurswissenschaften, molekularer Simulation, Textwissenschaften, etc. sehr weit entwickelt ist. In diesen Projekten werden Workflows durch die Abbildung auf Grid-Services automatisiert und durch die Nutzung verteilter Ressourcen in ihrer Effizienz gesteigert. Während die erste Förderrunde noch wesentlich auf  akademische Communities ausgerichtet war, wurde in der dritten Runde eine wesentliche industrielle Ausrichtung voraus gesetzt. Weitere Projekte ergänzen vorhandene Grid-Middlewares um fehlende Funktionalitäten und Komponenten, um z. B. auch für eine kommerzielle Nutzung des Grid die Voraussetzungen zu schaffen.

Ergänzend zu den technologischen Entwicklungen wird im D-Grid eine geänderte Form der Zusammenarbeit zwischen Ressourcenanbietern und Ressourcennutzern propagiert, die im akademischen Bereich Änderungen in der Wissenschaftsfinanzierung voraussetzt. Von sämtlichen Projekten werden Geschäftsmodelle erwartet, die eine Nachhaltigkeit und Verstetigung nach Auslaufen der Projektförderung sicher stellen. Voraussetzung für eine nachhaltige Grid-Nutzung ist der Aufbau eine D-Grid-Infrastruktur, die langfristig tragfähig ist. Die Bildung hierzu notwendiger Organisationsstrukturen findet stufenweise statt.

Die D-Grid Initiative hat sich seit ihren Anfängen dynamisch entwickelt, wobei in vielen Bereichen wesentliche Erfolge zu verzeichnen sind. Bis jeder Wissenschaftler erreicht ist, der in Deutschland Nutzen aus dem Grid ziehen kann, sind noch einige Aktivitäten notwendig.

Forschunginformationsmanagement in der Praxis

Jan C. Maier, AVEDAS AG

Hochschulen, Forschungseinrichtungen und thematische Cluster stellen sich täglich dem nationalen und internationalen Wettbewerb um wissenschaftliche Exzellenz und Drittmittel. In diesem Umfeld ist es besonders wichtig, sich klar zu positionieren und die eigenen Stärken heraus zu stellen. Um dies erfolgreich zu bewerkstelligen, bedarf es einer detaillierten und aktuellen Selbstsicht auf die eigenen Kompetenzen und Aktivitäten sowie deren Einordnung in einen nationalen und europäischen Kontext. Hierfür ist eine qualitätsgesicherte Datenbasis zu laufenden und abgeschlossenen Projekten, Publikationen sowie weiteren Forschungsinformationen unabdingbar. Aufbau und Pflege einer solchen Datenbasis sind jedoch mit vielfältigen Herausforderungen verbunden. Immer wieder stellen sich somit die Kernfragen: Woher kommen die Informationen? Wie werden sie aktualisiert? Und wie kann vermieden werden, dass dieselben Informationen immer wieder von neuem zusammengetragen werden müssen?

Der Vortrag gibt einen Überblick über aktuelle Lösungen zur Sammlung, Validierung und Nutzung von Forschungsinformationen mittels Forschungsinformationssystemen in der Praxis und stellt Beispiele vor.

Zur Person:
Jan C. Maier studierte Wirtschaftsingenieurswissenschaften an der Universität Karlsruhe (TH). Seit mehr als 15 Jahren arbeitet er in verschiedenen europäischen Ländern als Berater und leitet Projekte in den Bereichen Forschungs- und Innovationsmanagement. Seit 2004 ist er Vorstand der AVEDAS AG, einer europäischen Software- und Beratungsfirma mit Sitzen in Karlsruhe und Stockholm. AVEDAS hat mit CONVERIS ein Standard-Forschungsinformationssystem entwickelt, mit dem Hochschulen und Forschungorganisationen auf allen Ebenen Informationen zu ihren Forschungsaktivitäten und -ergebnissen pflegen und auswerten sowie für Förderanträge, Forschungsevaluierungen und andere Zwecke nutzen können.

 

Vernetztes Wissen und virtuelle Forschungsumgebungen

Prof. Dr. Kurt Mehlhorn, Direktor am Max-Planck-Institut für Informatik

Eine erstklassige Wissenschaftsorganisation muss ihren Wissenschaftlern erstklassige Arbeitsbedingungen bieten. Dazu haben immer Labors und Geräte gehört und dazu gehört jetzt auch eResearch. Die Entwicklung von neuen Werkzeugen war immer Gegenstand der Forschung. Man denke etwa an das Elektronenmikroskop.

Ich werde im ersten Teil des Vortragas auf die Struktur und die Aktivitäten der Max Planck Digital Library eingehen. Die Unterstützung der Wissenschaft mit modernen Arbeitsumgebungen ist erklärte Aufgabe der MPDL.

Das eSciDoc Projekt mit den Komponenten PubMan und Scholarly Workbench addressiert dieses Ziel. Ich werde eine Übersicht über die Arbeiten geben. Eine detaillierte Darstellung wird dann der Vortrag von Herrn Malte Dreyer liefern.

Im zweiten Teil des Vortrags schildere ich Forschungsprojekte aus dem MPI für Informatik, die Grundlage für verbesserte Arbeitsumgebungen liefern:
CompleteSearch (Hannah Bast) und Harvesting Knowledge from the Web (Gerhard Weikum).

Zur Person:
Kurt Mehlhorn is founding director of the Max Planck Institute for Computer Science and was vice-president of the Max Planck Society from 2002 to 2008. Having graduated in 1971 from the Technical University of Munich, where he studied computer science and mathematics, he earned his Ph.D. in 1974 from Cornell University. He was chair of computer science department in Saarland University in Saarbrücken, Germany. Since 1990 he has been director at the Max Planck Institute for Computer Science, also in Saarbrücken. He has been on the editorial boards of ten journals, a trustee of the International Computer Science Institute in Berkeley, California, and a member of the board of governors of Jacobs University Bremen. He won the Gottfried Wilhelm Leibniz Prize(1986), the Karl Heinz Beckurts Award(1994), the Konrad Zuse Medal(1995) and was named a Fellow of the Association of Computing Machinery(1999), a member of the Berlin-Brandenburg Academy of Sciences(2001), and a member of the German Academy of Sciences Leopoldina(2004). He has received honorary doctorates from the Otto von Guericke University of Magdeburg in 2004, the University of Waterloo in 2006, and the University of Aarhus in 2008.  Mehlhorn has over 250 scientific publications. He is best known as one of the developers of LEDA, the Library of Efficient Data types and Algorithms; he is also known for his work on shortest path algorithms, perfect hashing, parallel algorithms, and computational geometry.

 

Das DINI-Positionspapier „Forschungsdaten“ im nationalen und internationalen Kontext

Heinz Pampel, Helmholtz-Gemeinschaft

Das digitale Zeitalter hat Forschenden neue Möglichkeiten in der Handhabung wissenschaftlicher Daten eröffnet. Weltweit gewinnt die Forderung nach einem verantwortungsvollen und organisierten Umgang mit Forschungsdaten, die im Rahmen öffentlich geförderter Forschung entstehen, an Bedeutung.

Wissenschaftliche Institutionen sind gefordert sich dieses Themenfeldes anzunehmen. Besondere Bedeutung kommt dabei der engen Zusammenarbeit zwischen Forschenden und Infrastruktureinrichtungen wie Bibliotheken, Datenzentren und Rechenzentren zu. Dabei gilt es, kooperativ Lösungen und Wege für das Management von Forschungsdaten zu etablieren, die den Anforderungen der jeweiligen Disziplin entsprechen.

Das im Sommer 2009 veröffentlichte Positionspapier „Forschungsdaten“ der Arbeitsgruppe „Elektronisches Publizieren“ in der Deutschen Initiative für Netzwerkinformation (DINI) beleuchtet Kernthemen, welche bei der Annäherung an das Thema Forschungsdaten von grundlegender Bedeutung sind.

Der Vortrag stellt das Positionspapier in den Kontext nationaler und internationaler Aktivitäten rund um die Herausforderungen im Umgang mit Forschungsdaten.

Zur Person:
Studium des Bibliotheks- und Informationsmanagements an der Hochschule der Medien Stuttgart. Seit 2007 Informationsmanager im Open Access Projekt der Helmholtz-Gemeinschaft am Deutschen GeoForschungsZentrum – GFZ.
Mitglied des Arbeitskreis Open Access der Helmholtz-Gemeinschaft, der Arbeitsgruppe „Elektronisches Publizieren“ der Deutschen Initiative für Netzwerkinformation (DINI) und des Multiplikatoren-Netzwerks oa-net-work der Informationsplattform open-access.net.

 

Intuitives Suchen im semantischen Web – Neue Wege der Erschließung komplexer Datenräume

Dr. Norbert Reithinger, Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), Direktor des Project Office Berlin

In meinem Vortrag werde ich aus zwei Projekten berichten, die sich mit neuen Interaktionswegen zur Erschließung komplexer Datenräume beschäftigen. Im vom Bundesministerium für Wirtschaft und Technologie initiierten Forschungsprogramm THESEUS ist es das Ziel, eine neue internetbasierte Wissensinfrastruktur zu entwickeln, um die Inhalte des Semantischen Webs zu nutzen und zu verwerten. Im Bereich der Basistechnologien erforschen wir in diesem Rahmen, wie Benutzer Inhalte und Dienste des Semantischen Webs intuitiv und einfach erschließen können. Wir entwickeln hierzu Module, die es erlauben, kontextadaptive multimodale semantische Systeme zu realisieren. Mit dem CoMET-Demonstrator zeige ich, wie intuitive Zugangssysteme zu semantischen Wissensbanken in Zukunft aussehen können, die eine nahtlose Integration verschiedener semantischer Dienste realisieren.

Im zweiten Teil meines Vortrags werde ich zeigen, wie vergleichbare Technologien im Bereich digitaler Bibliotheken angewendet werden können. Dabei untersuchen wir Ansätze, um aus Texten wie Titel, Zusammenfassungen oder den Dokumenten selbst Inhalte zu extrahieren und diese dann, gemeinsam mit bereits vorhandenen Metadaten zu verknüpfen. Für diese Daten entwickeln wir neuartige Zugangswege und Benutzerschnittstellen, die das Ziel haben, den Explorationsprozess eines Wissenschaftlers bei der Suche in digitalen Bibliotheken zu unterstützen.

Zur Person:
Dr. Norbert Reithinger war nach dem Studium der Informatik an der Universität Erlangen-Nürnberg und kurzer Industrietätigkeit wissenschaftlicher Mitarbeiter an der Universität des Saarlandes (Lehrstuhl für künstliche Intelligenz und deduktive Datenbanken, Leitung Prof. Dr. Dr. h. c. mult. Wolfgang Wahlster). Dort promovierte er im Bereich der praktischen Informatik zum Thema Generierung multimodaler Dialogbeiträge. Seit 1993 ist er als leitender Mitarbeiter im Themenfeld multimodaler Interaktionssysteme am Deutschen Forschungszentrum für Künstliche Intelligenz GmbH (DFKI) tätig. In vielen nationalen und internationalen Projekten und Forschungsprogrammen wie Verbmobil, Smartkom, Smartweb und THESEUS koordinierte er die Entwicklung der Module zur multimodalen Interaktion. Er war zudem als wissenschaftlicher Koordinator dieser  Projekte verantwortlich für die erfolgreiche Projektdurchführung. Er ist (Co-)Autor von über 30 Artikeln und war Mitglied vieler Programmkomitees internationaler Konferenzen und Workshops. Seit 2007 ist er als Leiter des DFKI Projektbüros Berlin mitverantwortlich für den Aufbau des vierten DFKI-Standorts.

 

Verfügbarkeit und Rahmenbedingungen von Primärdaten in der Bildungsforschung

Prof. Dr. Marc Rittberger, Direktor des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF)

Fragestellungen im Kontext Primärdaten sind in der Bildungsforschung in den letzten Jahren verstärkt aufgegriffen worden. Nicht zuletzt durch die von Politik und Wissenschaft eingeleiteten zweiten empirischen Wende sowie der Komplexität und der Multidimensionalität des Forschungsfeldes hat sich sowohl die Verfügbarkeit von Primärdaten als auch die Anforderungen an die nachhaltige Nutzbarkeit grundlegend geändert. Anhand zweier Beispiele, dem Umgang mit Videodaten und den Anforderungen an, aus empirischen Studien erhobenen Daten, wird auf spezifische Rahmenbedingungen und Problemstellungen im Kontext der Bildungsforschung eingegangen.

Zur Person:
Prof. Dr. Marc Rittberger, seit 2005 am Deutschen Institut für Internationale Pädagogische Forschung (DIPF) für den Schwerpunkt Bildungsinformation verantwortlich und seit 2008 Direktor des DIPF. Nach dem Studium der Physik und Informationswissenschaft arbeitete er zunächst als wissenschaftlicher Mitarbeiter an der Universität Konstanz. Es folgten Tätigkeiten am Lehrstuhl Informationswissenschaft der Universität Düsseldorf und der HEG Genève, filière information documentaire. 2005 wechselte er nach Frankfurt am Main zum DIPF und übernahm zeitgleich eine Professur für Informationsmanagement an der Hochschule Darmstadt. Marc Rittberger ist Mitglied des Präsidiums der Leibniz-Gemeinschaft, des Vorstands des Hochschulverbandes Informationswissenschaft und im Beirat des Know-Center-Graz, des Institut National de Recherche Pédagogique und der Zentralbibliothek für Wirtschaftswissenschaften.

 

Mit Bildern nach Bildern suchen

Dr. Jan Simane, Leiter der Bibliothek des Kunsthistorischen Instituts in Florenz – Max-Planck-Institut

Für die Kunstwissenschaft sind bildliche Objekte das wichtigste Medium. Sie sind sowohl Untersuchungsgegenstand als auch Informationsträger, sie sind die Materie, die der Kunstwissenschaftler für seine Forschungen ‚sammelt'. Verständlicherweise wirkt sich dabei neuerdings das gewaltige und sehr heterogene Angebot an Bildmaterial im Internet nachhaltig aus. Welchen Zugang hat man zu dieser Quelle? Im wissenschaftlichen Kontext werden Multimediaobjekte, also auch digitale Bilder, in Form einer intellektuell oder automatisch generierten semantischen Kodierung repräsentiert, klassifiziert und verschiedenen Ordnungskriterien zugewiesen. Die erheblich erweiterten Möglichkeiten der Auffindbarkeit von Informationen und Objekten in digitalen Netzen sind also weitestgehend textbasiert. Man sucht mit Begriffen. Bei der Suche nach Bildern wirken sich dabei die notwendige Begrenzung auf wenige Merkmale des Bildes und der Zwang zur Normierung der gewählten Begriffe nachteilig aus. Damit ist die Auffindbarkeit Beschränkungen und der Beherrschung der korrekten semantischen Terminologie unterworfen, die in der Regel nur in einer Sprache zur Verfügung steht. Die Kodierung von Textzeichen ist dabei, wie bei allen verbalen Recherchen, die entscheidende Voraussetzung, um Identisches und Differentes maschinell ermitteln zu lassen, da der Begriffsinhalt und sein digitaler Code eine Einheit bilden. Lässt sich dieses Prinzip auch auf die Bildobjekte selbst übertragen und anstelle von zugeordneten Begriffen, nonverbal, auf der Grundlage von Formenvergleichen nach Bildern suchen? Das Kunsthistorische Institut in Florenz, Max-Planck-Institut, hat in Zusammenarbeit mit dem "Istituto di Scienza e Tecnologie dell'Informazione A. Faedo" (ISTI) in Pisa eine experimentelle Datenbank konzipiert, in der digitalisierte Bildobjekte ohne verbale Kontextualisierung auf der Grundlage von flächenstrukturellen Formenmerkmalen in Gestalt einer rein bildgestützter Ähnlichkeitsermittlung gesucht werden können. Das Experiment basiert auf einer digitalen Sammlung von etwa 2.800 handgezeichneter Wappen Florentiner Familien, deren Kenntnis für kunsthistorische Untersuchungen fallweise von erheblicher Bedeutung sein kann. Mit dem Projekt Stemmario bemühen wir uns, die Identifizierung von Wappen ausschließlich bildbasiert und unter Umgehung der komplizierten heraldischen Fachterminologie zu ermöglichen. Die zwischen der visuellen Information, die das Objekt selbst trägt, und seiner verbalen Beschreibung als ‚Metainformation' entstandene ‚semantische Lücke' wurde überwunden. Das neue Suchprinzip basiert im Wesentlichen auf der Zerlegung der digitalen Bilder in einzelne Flächenelemente, die dem Benutzer angezeigt werden. Er hat die Wahlmöglichkeit, nach verschiedenen Kriterien (Einzelelement, Kombinationen, farblosen Konturen etc.) die Datenbank nach ähnlichen Objekten durchsuchen zu lassen. Dies ist bei relativ einfachen und einheitlichen Bildobjekten wie Wappen eine vielversprechende Methode. Bei komplexen Bildern in heterogenen Sammlungen sind verständlicherweise schnell die Grenzen der Leistungsfähigkeit erreicht.

Zur Person:
Studium der europäischen Kunstgeschichte, klassischen Archäologie und Philosophie an den Universitäten Heidelberg und Wien. 1989/90 Stipendium des Deutschen Studienzentrums in Venedig. 1990/91 Promotion. 1991-1993 wissenschaftlicher Mitarbeiter am Hessischen Landesmuseum in Darmstadt. 1994-1996 Ausbildung für den höheren Dienst an wissenschaftlichen Bibliotheken. Seit 1996 Leider der Bibliothek des Kunsthistorischen Institutes in Florenz, Max-Planck-Institut.

 

Grids und virtuelles Observatorium: mehr als ein Google für Sterne!

Prof. Dr. Matthias Steinmetz, Wissenschaftlicher Direktor des Astrophysikalischen Instituts Potsdam

Sowie das Internet unser tägliches Leben beeinflußt hat, so ändern die modernen Informationstechnologien auch die Art und Weise wie Astronomen und Astrophysiker arbeiten. Moderne Grossteleskope, umfassende Himmelsdurchmusterungen mit Teleskopen und Satelliten sowie Simulationen mit Höchstleistungsrechnern liefern Datenmengen, die nicht mehr mit den traditionellen Arbeitsplatzrechnern zu beherrschen sind. Ausgeklügelte Suchstrategien in diesen Datenbanken erlauben die schnelle Entdecklung und Identifizierung von Himmelsergeignissen, wie z. B. einer Supernova. Robotische Teleskope ermöglichen es, automatisch und kurzfristig darauf zu reagieren und so wichtige Erkenntnisse aus der Frühphase dieser Objekte zu gewinnen. Im "Virtuelle Obsertvatorium" werden dann all diese Daten zusammengeführt und geben dem Astronomen so einen "panchromatischen Blick" ins Universum.

Zur Person:
Homepage Prof. Steinmetz

Forschungsinformationssysteme – Schaltstellen für Planung, Management und Evaluation

Dr. Maximilian Stempfhuber, Leiter des Dezernats "Kommunikations- und Informationstechnik" (KIT) an der Hochschulbibliothek der RWTH Aachen

Mit der gestiegenen Bedeutung standardisierter und regelmäßiger Evaluation wissenschaftlicher Leistung im Rahmen von Forschungsratings und –rankings, leistungsbezogener Mittelvergabe, Exzellenzinitiative oder dem Wettbewerb um wissenschaftliches Personal und Studierende, steigen auch die Anforderungen an eine systematische, lückenlose und aktuelle Forschungsdokumentation: Über die „Hochschulbibliografie“ hinaus sehen sich Forschungseinrichtungen und Hochschulen in der Pflicht, den gesamten Forschungsprozess – von der Antragstellung eines Projektes bis zur Wertschöpfung in Form von z. B. Publikationen, Qualifizierungen und Patenten – zu dokumentieren, intern und extern nachvollziehbar zu machen und gleichzeitig eine Wissensbasis zu generieren, die bei der Planung und Durchführung zukünftiger Forschungsvorhaben genutzt werden kann. Dies umfasst die in der Einrichtung vorhandene Expertise ebenso wie Kooperationsnetzwerke und technische wie wissenschaftliche Infrastruktur.

Zusammen mit der Europäischen Kommission hat euroCRIS, eine nicht-kommerzielle Organisation mit 113 Mitgliedern aus 37 Ländern, ein Modell für Forschungsinformationssysteme (Current Research Information System, CRIS) entwickelt, das diesen Ansprüchen gerecht wird.  Es besteht aus einem Datenmodell, dem European Research Information Format (CERIF), und einem Vorgehensmodell zum Aufbau CERIF-kompatibler Forschungsinformationssysteme, dem Code of Good Practice.  In zwei Phasen zwischen 1987 und 1999 entwickelt, stellt CERIF das momentan am weitesten entwickelte und implementierte Datenmodell für Forschungsinformation dar; seit 2002 pflegt und entwickelt euroCRIS den CERIF-Standard im Auftrag der Europäischen Kommission weiter.

Der Vortrag gibt einen Überblick über aktuelle Aktivitäten zu Forschungsinformationssystemen in Europa und stellt den CERIF-Standard vor, der vielen dieser Forschungsinformationssysteme zugrunde liegt. Anhand der Vernetzung und Einbindung CERIF-kompatibler Forschungsinformationssysteme in die IuK-Infrastruktur werden das Zusammenspiel u. a. mit Open Access Repositorien und die entstehenden Synergien gezeigt. Ein Ausblick auf die Weiterentwicklung von CERIF bildet den Abschluss des Vortrags.

Zur Person:
Maximilian Stempfhuber studierte Informationswissenschaft und Wirtschaftsinformatik an der Universität Regensburg und promovierte in Informatik an der Universität Koblenz-Landau. Von 1995 an war er am Informationszentrum Sozialwissenschaften in Bonn (jetzt: GESIS - Leibniz-Institut für Sozialwissenschaften) beschäftigt; zunächst als wissenschaftlicher Mitarbeiter, ab 2000 als Abteilungsleiter Forschung und Entwicklung und ab 2004 zusätzlich als stellv. Direktor. Seit August 2009 leitet er das IT-Dezernat an der Hochschulbibliothek der RWTH Aachen.
Der Arbeits- und Forschungsschwerpunkt von Herrn Stempfhuber liegt im Bereich Digitale Bibliotheken, und hier insbesondere im Information Retrieval und der Softwareergonomie. Herr Stempfhuber engagiert sich in einer Reihe nationaler und internationaler wissenschaftlicher Vereinigungen, unter anderem in den Vorständen von DINI, der IuK-Initiative Wissenschaft und euroCRIS.