Gepflegt, geteilt, digital lesbar

Forschungsdatenmanagement in den Ingenieurwissenschaften

08.12.2020

Stand und Zukunft des Forschungsdatenmanagements in den Ingenieurwissenschaften: Mehr als 150 Wissenschaftlerinnen und Wissenschaftler diskutierten darüber „virtuell an der TU Darmstadt“.

In den Forschungseinrichtungen der TU Darmstadt enstehen ständig neue Daten – wie hier am Sonderforschungsbereich 1194 „Wechselseitige Beeinflussung von Transport- und Benetzungsvorgängen“.

Forschungsdaten in den Ingenieurwissenschaften werden nachhaltig gepflegt, sind maschinenlesbar und werden geteilt – das alles verheißt die nahe Zukunft. Über diese Perspektiven von Open Science und Forschungsdatenmanagement (FDM) berieten über 150 Wissenschaftlerinnen und Wissenschaftler von Universitäten, Helmholtz-Instituten, Fraunhofer Gesellschaft und Industrie. Den Rahmen bildete eine vom Konsortium Nationale Forschungsdateninfrastruktur für die Ingenieurwissenschaften (NFDI4Ing) veranstaltete digitale Konferenz, organisiert unter der Leitung von Professor Peter Pelz von der TU Darmstadt.

Welch enorme Bedeutung das Thema aktuell hat, zeigt der Erfolg einer Open Science-Plattform bei der Entwicklung des COVID-19-Impfstoffs: Was sonst rund zehn Jahre benötigt, wurde um den Faktor 10 verkürzt.

Im Fokus der Konferenz standen die Aspekte „Datenkompetenz von Anfang an“, „Governance-Konzepte beim Forschungsdatenmanagement“ und „Technologien der Forschungsdateninfrastruktur (FDI)“. Die Teilnehmenden resümierten unter anderem, dass FDM und FDI an Universitäten derzeit nicht ausreichend finanziert sei. Erfolgsgeschichten zeigten, dass zehn Prozent der Forschungsmittel für FDM aufgewendet werden müssten – hinzu kämen die Aufwände für FDI. Jede Wissenschaftsgemeinschaft müsse für sich klären, welchen Wert ihre Rohdaten haben.

pp/feu



Statements von Teilnehmern zur Frage „Wie sehen FD-Management und FD-Infrastruktur in zehn bis zwanzig Jahren aus?“

Professor Stefan Decker, Professor Informationssysteme und Datenbanken, RWTH Aachen:

„FD sind Teil des explizit vorliegenden Wissensnetzes, realisiert durch persistente Identifikatoren und Fachvokabulare. Neue wissenschaftliche Erkenntnisse werden nicht mehr als Papier oder PDF veröffentlicht, sondern werden durch neue Eintragungen in diesem globalen Wissensnetzwerk realisiert. Datensätze, Objekte in den Datensätzen und Aussagen, aber auch Autoren sind referenzierbar und verlinkbar. Schlussfolgerungen können jederzeit Schrittweise nachvollzogen werden.

Communities unterhalten untereinander P2P-vernetzte Infrastrukturen (durch Bibliotheken, die zu Community-Hostern geworden sind). Jeder, der dazu beiträgt, kann jederzeit entscheiden, ob Ergebnisse öffentlich sichtbar sein sollen, oder zunächst nur eingeschränkt. Alle Ergebnisse zu einem bestimmten Thema können jederzeit strukturiert betrachtet und maschinell verarbeitet werden.“

Professor Andreas Dreizler, Fachgebiet Reaktive Strömungen und Messtechnik, TU Darmstadt, Sprecher des DFG-Sonderforschungsbereichs/TR 150:

In spätestens zehn Jahren haben wir ein gemeinsames Verständnis vom FD-Management auf Basis wissenschaftsunterstützender und praktikabler Prozesse. In spätestens zehn Jahren haben wir eine leistungsfähige, wissenschaftsunterstützende FD-Infrastruktur, deren Erhalt und Ausbau über zusätzliche Mittel finanziell abgesichert ist.

Dr.-Ing. Christian Langenbach, Forschungsdatenmanager, Deutsches Zentrum für Luft- und Raumfahrt:

„Heute werden Daten bestenfalls verwaltet, die morgen etablierten Systeme werden die Daten mit einer vereinheitlichen Data Governance über Disziplingrenzen hinweg verknüpfen, verbinden und verwandeln.“

Professor Matthias Müller, Lehrstuhl für Hochleistungsrechnen, RWTH Aachen:

„Das Forschungsdatenmanagement der Zukunft wird sich von den lästigen kleinteiligen Aufgaben befreit haben und daher nicht mehr Forschungsdatenmanagement heißen, sondern Knowledge-Management. Dank Nationaler Forschungsdateninfrastruktur werden wir den Daten vertrauen können, da diese digital signiert aus vertrauenswürdigen Quellen kommen und mit nachvollziehbaren Prozessschritten verarbeitet werden. Bei der Forschungsdateninfrastruktur werden wir es geschafft haben, diese unabhängig von den Einflusssphären globaler Konzerne und nationaler Interessen aufzustellen. Die Finanzierung wird wie die Energieversorgung oder die Verkehrsinfrastruktur als globale Aufgabe angesehen.“

Bild: Claus Völker

Professor Thomas Stäcker, Direktor Universitäts- und Landesbibliothek Darmstadt:

In zehn bis zwanzig Jahren gibt es verbindliche Metadatenstandards auf der disziplinären und interdisziplinären Ebene. FDM ist fester Bestandteil wissenschaftlicher Qualitätssicherung und so gestaltet, dass die Reproduzierbarkeit von Forschungsergebnissen im Sinne guter wissenschaftlicher Praxis sichergestellt ist. Die Publikation von FD unter möglichst freien Lizenzen ist eine eigene wissenschaftliche Leistung und wird als solche anerkannt. Die FD-Infrastruktur im Jahr 2025 dient der Sicherung, Dokumentation und Bereitstellung von wissenschaftlichen Forschungsdaten. Es stehen uneingeschränkt datenschutzkonforme und kostengünstige Repositorien und Cloudspace von FD zur Verfügung. Open Source-Software unterstützt den Forschungsprozess in allen Stufen des data life cycle. Statische Forschungsdaten werden nach standardisierten Datentypen (Datenstrukturen) archiviert.

Professor York Sure-Vetter, Institut für Angewandte Informatik, Karlsruher Institut für Technologie (KIT), Direktor der Nationalen Forschungsdateninfrastruktur (NFDI):

„Mein Blick in die Zukunft: Das Forschungsdatenmanagement wird nahtlos in die Forschungsprozesse eingebunden sein. Forschungsdaten anhand der FAIR-Prinzipien bereit zu stellen, wird für Forschende aus allen Wissenschaftsbereichen ein natürlicher Bestandteil Ihrer Forschungstätigkeit sein. Dadurch werden zunehmend schneller Forschungsergebnisse erzielt.

Die Forschungsdateninfrastruktur der Zukunft ist föderiert, verteilt und vernetzt. Sie stellt Forschungsdaten kurz- und langfristig so zur Verfügung, dass alle wesentlichen globalen Problemstellungen wissenschaftsgeleitet, interdisziplinär und rechtssicher untersucht werden können.“

Dr. Veit Ulshöfer, Global Head Research Informatics, Healthcare, Merck KGaA:

„Durch die technologische Entwicklung werden wir künftig immer größere Datenmengen sehen. Der Trend zur kollaborativen Forschung wird sich verstärken, und damit einhergehend die Notwendigkeit, auch große Mengen FD zu teilen. Neben leistungsfähiger Daten-Infrastruktur ist die Entwicklung von Datenstandards und Daten Governance ein wichtiger Aspekt, mit diesen Herausforderungen umzugehen.“