GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Wischhofstr. 1-3
24148 Kiel
Für Medienanfragen erreichen Sie uns am besten per E-Mail unter media(at)geomar.de
Anfragen zu Veranstaltungen richten Sie bitte an outreach(at)geomar.de
Besonders wichtig sind die im Rahmen der Helmholtz-Gemeinschaft ausgelobten Programme wie das vom UFZ koordinierte Infrastrukturprojekt Modular Observation Solutions for the Earth System (MOSES), das darauf abzielt, modulare Sensorsysteme und –plattformen zu entwickeln, die gemeinsam mit Partnern des Forschungsbereiches Erde und Umwelt und anderen Institutionen langfristig genutzt werden können. Das GEOMAR entwickelt konkret Datenmanagementpläne, die im Rahmen von zwei großen Expeditionen, die in diesem Jahr stattfinden, Anwendung finden sollen.
https://moses.geomar.de
Kontakt: Prof. Dr. Jens Greinert, jgreinert(at)geomar.de
Mehr auf die Zusammenführung und Kopplung von unterschiedlichen Modellkomponenten ist das vom AWI koordinierte Projekt Earth System Modelling Capacity (ESM) ausgelegt. Dieses Helmholtz-Projekt umfasst die Kopplung unterschiedlicher Modellbausteine, die Atmosphäre und Ozean simulieren, bis hin zur Geosphäre und der Kopplung biogeochemischer Modelle.
www.esm-project.net
Kontakt: Prof. Dr. Arne Biastoch, abiastoch(at)geomar.de
Wie ESM wird auch das Data Science Projekt Digital Earth aus dem Impuls- und Vernetzungsfonds der Helmholtz-Gemeinschaft finanziert. Digital Earth wird vom GEOMAR koordiniert und beschäftigt sich mit visueller und computergestützter Datenexploration, insbesondere auch durch Methoden des Maschinellen Lernens, die gemeinsame und nachhaltige Entwicklung von Software sowie Governance Strukturen, die für die nächste Phase der programmorientierten Förderung benötigt werden. Ein weiterer wesentlicher Aspekt von Digital Earth ist das sogenannte Smart Monitoring, bei dem Datenanalysen in Echtzeit helfen sollen, den Einsatz von Sensoren im Feld zu optimieren.
www.digitalearth-hgf.de
Kontakt: Prof. Dr. Jens Greinert, jgreinert(at)geomar.de
Ähnlich ausgelegt ist ARCHES (Autonomous Robotic Networks to Help Modern Societies), ein weiteres durch die Helmholtz-Gemeinschaft finanziertes Projekt, bei dem es am GEOMAR um die intelligente Vernetzung von Sensorsystemen im Ozean und auf künstlicher Intelligenz basierender Methoden zur Auswertung von Sensorsignalen geht. Im Rahmen von ARCHES werden seit Januar 2017 zusammen mit DLR, AWI, und KIT autonome und vernetzte robotische Systeme zur marinen und planetaren Umwelterkundung entwickelt. Ein Schwerpunkt liegt auf der Einrichtung eines Unterwasser-Messnetzes, das aus mobilen und stationären Systemen besteht. Im Verbund sollen diese Systeme autonom auf sich ändernde Umweltparameter reagieren und die Messstrategie entsprechend ändern. Hierzu wird neben klassischen Verfahren auch Machine Learning eingesetzt. Als Höhepunkt des Projekts ist der Test des Messnetzes nahe der Boknis Eck Zeitserienstation im Jahr 2021 geplant.
www.arches-projekt.de
Kontakt: Dr. Stefan Sommer, ssommer(at)geomar.de und Dr. Sascha Flögel, sfloegel(at)geomar.de
Aktuelle Dateninfrastrukturprojekte am GEOMAR
Verteilte, einrichtungsübergreifende Infrastrukturen für Forschungsdaten spielen eine immer größere Rolle in der Entwicklung trans- und interdisziplinärer Forschungsvorhaben, Projekte wie Digital Earth sind ohne diese Infrastrukturen nicht denkbar. Das GEOMAR beteiligt sich daher gleich an mehreren solcher Infrastrukturprojekte. So wird für den Forschungsbereich Erde und Umwelt ein gemeinsamer Data Hub etabliert, der bestehende Dateninfrastrukturen zusammenbringen und über ein gemeinsames Portal zugänglichen machen soll. Das GEOMAR baut im Rahmen dieses Projektes ein Dateninfrastruktur-Team auf, das eng mit allen beteiligten Einrichtungen zusammenarbeiten wird. Im Rahmen der Deutschen Allianz für Meeresforschung (D.A.M.) beteiligt sich das GEOMAR in den nächsten zwei Jahren am Aufbau eines Datenportals, dessen Fokus zunächst auf der Automatisierung von Datenflüssen und der Archivierung von ‚Unterwegsdaten‘ der vier großen Forschungsschiffe MARIA S. MERIAN, METEOR, POLARSTERN und SONNE liegt. Im kommenden Juni wird ferner die erste Ausschreibung zum Aufbau der Nationalen Forschungsdateninfrastruktur (NFDI) erwartet. Das GEOMAR betreibt in diesem Zusammenhang gemeinsam mit einer Reihe anderer Einrichtungen die Gründung des NFDI-Konsortiums Erdsystemforschung (NFDI4Earth). Der Data Hub des Forschungsbereichs Erde und Umwelt und das D.A.M.-Datenportal verstehen sich dabei als wichtige Bausteine von NFDI4Earth.
www.nfdi4earth.de | Kontakt: Sören Lorenz, slorenz(at)geomar.de
Der enorme Zuwachs an Daten stellt die Meereswissenschaften vor große Herausforderungen. Sie benötigen daher eine Vielzahl an neuen Methoden aus dem Bereich der Information & Data Science, um die Menge an Daten effektiv und nachhaltig zu nutzen. Die Helmholtz School for Marine Data Science (MarDATA) tritt an, um einen neuen Typus von marine data scientists zu definieren und ausbilden. Wissenschaftlerinnen und Wissenschaftler von GEOMAR und AWI werden in den nächsten sechs Jahren gemeinsam mit ihren Partneruniversitäten in Kiel und Bremen Promovierende ausbilden und betreuen. Die breite Ausbildung in Blockkursen, Sommerschulen und Kolloquien wird dabei disziplinübergreifend durchgeführt und soll zu wissenschaftlichen Ergebnissen und einer innovativen Behandlung meereskundlicher Daten führen. MarDATA startet Mitte 2019 mit einer ersten Ausschreibung (Veröffentlichung März/April) von fünf bis zehn Stellen pro Zentrum.
Kontakt: Prof. Dr. Arne Biastoch, abiastoch(at)geomar.de
Die Helmholtz-Gemeinschaft investiert künftig jährlich 35 Millionen Euro in vier Plattformen, an deren Gestaltung war auch das GEOMAR maßgeblich beteiligt war, zur Digitalisierung der Forschung. Die Plattformen sind die Helmholtz Infrastructure for Federated ICT Services mittels der dem GEOMAR Anschluss an Helmholtz-Cloud-Dienste und ein breitbandiger Netzzugang zu anderen Zentren ermöglicht wird; die Helmholtz Information & Data Science Academy, die es Forschenden am GEOMAR ermöglicht sich Data Science Fähigkeiten anzueignen; die Helmholtz Imaging Platform, die Fördermittel für die automatisierte Generierung und Auswertung von Bildmaterial bereitstellt und die mit Abstand größte Plattform Helmholtz Artificial Intelligence Cooperation Unit (HAICU), die die Expertise der Helmholtz Gemeinschaft in Künstlicher Intelligenz (KI) bündeln und deutlich erweitern soll. Eine fünfte, die Helmholtz Metadata Collaboration (HMC) Plattform zur Stärkung der Sichtbarkeit der Forschungsdaten der Helmholtz-Gemeinschaft und ihrer Forschungsbereiche, ist in der Entwicklung. Auch hier bringt das GEOMAR seine Expertise ein.
Kontakt: Sören Lorenz, slorenz(at)geomar.de und Prof. Dr. Jens Greinert, jgreinert(at)geomar.de
Methoden der künstlichen Intelligenz wie das maschinelle Lernen sind aktuell in aller Munde. Autonome Fahrzeuge und Sprachassistenten wie Siri und Alexa zeigen die Fähigkeiten und Grenzen dieser innovativen Technologie bereits im Alltag. In der Meeresforschung können in der Tiefsee bereits automatisiert hunderttausende Fotos und Terabytes an Videomaterial aufgezeichnet werden. Hier wird nun ebenfalls maschinelles Lernen eingesetzt, um in den großen Datenmengen Zusammenhänge automatisch zu erkennen.
Es geht dabei einerseits darum, unbekannte Sachverhalte zu entdecken – mittels Mustererkennung, Data-Mining, Visualisierung und unüberwachten Lernverfahren. Diese Techniken werten Daten aus, ohne vorher Hinweise vom Menschen zu erhalten, was die Daten bedeuten. Andererseits geht es aber auch in großem Maße darum, menschliches Wissen in die Algorithmen einfließen zu lassen und so den Computer zu trainieren, um die Forschenden von diesen Aufgaben zu entlasten. Bekannte Beispiele dieser überwachten Lernverfahren sind der Random Forest Algorithmus oder Deep Learning Algorithmen. Am GEOMAR werden bereits viele Varianten des maschinellen Lernens angewendet. Random Forest hilft dabei hydroakustische Karten des Meeresbodens auszuwerten, um Rohstoffe zu entdecken und geologische Strukturen zu charakterisieren. Deep Learning Algorithmen werden eingesetzt, um Plankton in Mikroskopbildern zu klassifizieren. Diese am GEOMAR bislang weitgehend unbekannten Methoden und deren innovative Anwendung für die Meeresforschung sollen auch im Rahmen von Digital Earth und MarDATA an die zukünftigen Nutzer vermittelt werden.
Kontakt: Dr. Timm Schoening, tschoening(at)geomar.de
Seit 2019 gibt es am GEOMAR eine neue, von der DFG geförderte Emmy Noether-Nachwuchsgruppe für maschinelles Sehen in der Tiefsee. Die Forschungsgruppe beschäftigt sich damit, Methoden und Algorithmen zu entwickeln, um Fotos und Videos quantitativ und automatisiert auszuwerten. Die Anwendungsgebiete liegen im Kartieren und Messen mit Kameras (Oberflächen, Volumina und deren Änderungen) sowie in besserer Autonomie und Intelligenz von Tauchrobotern (Hindernisvermeidung, Objekterkennung, selbständige Missionsänderung).
Kontakt: Dr. Kevin Köser, kkoeser(at)geomar.de
Im Gegensatz zu Satelliten- oder Luftaufnahmen von den Kontinenten müssen beim Tiefseekartieren die Kameras wenige Meter an den Boden gebracht werden. Um optische Karten in der Größenordnung von mehreren Hektar zu erstellen, sind daher viele tausend Einzelfotos nötig, die mit Tauchrobotern des GEOMAR aufgenommen werden können. Für eine Karte mit Zentimeter-Auflösung muss dafür die Position des Tauchroboters in mehreren Kilometern Wassertiefe zu jedem Zeitpunkt ebenfalls mindestens mit Zentimeter-Genauigkeit aus den Bildern errechnet werden, und es müssen Wasser- und Beleuchtungseffekte zurückgerechnet werden. Dies kann mit Techniken des maschinellen Sehens gemacht werden, um schließlich große Karten zu erhalten, in denen räumliche Zusammenhänge und Muster besser analysiert werden können als im einzelnen Foto dicht über dem Meeresboden.
Kontakt: Dr. Kevin Köser, kkoeser(at)geomar.de
Mit PlanktonID (https://planktonid.geomar.de) steht eine Plattform zur Verfügung, um online mit Laien gemeinsam Millionen von Planktonorganismen zu identifizieren. Im Hintergrund wird an weiteren Methoden geforscht, um große Bilddatensätze von Plankton und Partikeln effizient und kollaborativ zu verarbeiten und zu kategorisieren. Außerdem ist geplant, die Forschungsansätze auch auf Daten aus Mikroskopie, Medizin und Fernerkundung anzuwenden.
Kontakt: Dr. Rainer Kiko, rkiko(at)geomar.de
Forschende am GEOMAR haben mit täglich wachsenden Datenmengen zu tun, die alles übertreffen, was uns im Alltag begegnet: Die nächste Generation der CMIP-Klimamodelle etwa wird mehr als 20 Petabyte an Daten produzieren. Dafür würden mehr als 100.000 Blu-Ray Disks gebraucht. Automatische Parallelisierung von Datenanalyse-Software ist eine Möglichkeit, um mit diesen wachsenden Datenmengen Schritt zu halten. Dabei macht es kaum einen Unterschied, ob die vier Kerne des eigenen Laptops oder tausende Knoten eines Superrechners genutzt werden. Durch gezielte Software-Entwicklung und Mitarbeitertraining war es möglich, diese Parallelisierungstechniken am GEOMAR zu verbreiten. Dies macht das GEOMAR zum Vorreiter in großskaliger Datenanalyse im Helmholtz Forschungsbereich Erde und Umwelt. Wissenschaftliche Fragen, die vor kurzem noch „unberechenbar“ waren, lassen sich nun oft in wenigen Stunden untersuchen. Allerdings wächst durch die massive Parallelisierung der Bedarf an flexibel nutzbaren Rechnersystemen. Das GEOMAR setzt aktuell auf ein mehrschichtiges System aus Speicher- und Rechen-Hardware am GEOMAR selbst, an der CAU Kiel und darüber hinaus an nationalen und internationalen Großrechnern, zum Beispiel denen der Helmholtz-Gemeinschaft.
Kontakt: Dr. Willi Rath, wrath(at)geomar.de
Die aktuelle Umstrukturierung des Daten- und Rechenzentrums zum Information, Data and Computation Center spiegelt sich in vielfältigen Projekten, Aktivitäten und Netzwerken am GEOMAR und darüber hinaus wieder. Um alle relevanten Informationen für externe und interne Interessierte zu bündeln, wurde vielfältiges Material zu Digital Science auf den Webseiten des GEOMAR veröffentlicht.
www.geomar.de/go/digitalscience
https://intranet.geomar.de/go/digitalscience (nur intern)
Kontakt: Dr. Daniela Henkel, dhenkel(at)geomar.de und Dr. Timm Schoening, tschoening(at)geomar.de
Immer häufiger basieren wissenschaftliche Auswertungen und Publikationen auf den Einsatz von Software. Sofern der Quelltext dieser Software relevant für die Datenanalyse ist, besteht Interesse - und teilweise die Pflicht - diesen Code bei Publikation der Fachartikel mit offen zu legen. Um die Rechte und Pflichten der Forschenden und des Instituts zu wahren, sind dafür Software-Lizenzen erforderlich. Der Knowledge Hub „DevOps“ hat sich bereits innerhalb des Instituts, der Helmholtz-Gemeinschaft und darüber hinaus intensiv mit dieser Thematik befasst.
https://devops.geomar.de (nur intern)
Kontakt: Dr. Markus Scheinert, mscheinert(at)geomar.de
und Claas Faber, cfaber(at)geomar.de
Ein besonderes Augenmerk des Datenmanagement-Teams liegt aktuell auf der Versionierung von Code und Daten- insbesondere mittels des Versionskontrollsystems Git, das am GEOMAR primär benutzt wird um Software Quellcode zu versionieren und als Open Source zu veröffentlichen. Desweiteren wird ein Fokus auf „FAIRe“ Daten gelegt, denn Mittelgeber verlangen heutzutage, dass Projekte ihre Daten Findable (Auffindbar), Accessible (Zugreifbar), Interoperable (Interoperabel) und Reuseable (Nachnutzbar) nachhaltig online verfügbar machen. Das Datenmanagement-Team unterstützt Forschende dabei durch Vermittlung von Know-How und ganz konkret durch das hauseigene Ocean Science Information System (OSIS) sowie die enge Zusammenarbeit mit dem Weltdatenzentrum PANGAEA. Der nächste Schritt ist, alle Daten und deren Erhebung durch Persistent ¬ dentifiers (PID) zu beschreiben. Diese sollen die Entstehung von Proben hin zu Forschungsdaten eindeutig, nachvollziehbar und nachnutzbar machen, insbesondere indem das Datenhandling mitdokumentiert wird, sowie indem Kalibrierungsroutinen oder Analyseskripte hinzugefügt werden.
Datenmanagement-Team: https://portal.geomar.de
GitLab: https://git.geomar.de
Kontakt: Dr. Carsten Schirnick, cschirnick(at)geomar.de
Der Digital Science Monday soll dazu dienen, den Informationsaustausch zu Digital Science Themen innerhalb des GEOMAR zu vereinfachen. Jeden ersten und dritten Montag im Monat finden dazu informelle Treffen abwechselnd am Ost- und Westufer statt. In einer offenen Runde wird mit wenigen Folien und viel Zeit für einen interaktiven Austausch ein Fokusthema präsentiert. Neue Kolleginnen und Kollegen bekommen so schnell Kontakt zu Ansprechpartnern. Fortschritte in Projekten werden für eine breite Kollegenschaft sichtbar. Weitere Besucher, Fokusthemen und Vortragende sind jederzeit willkommen.
https://intranet.geomar.de/go/digitalscience (nur intern)
Kontakt: Dr. Daniela Henkel, dhenkel(at)geomar.de und Dr. Timm Schoening, tschoening(at)geomar.de
Software-Entwicklung hat mittlerweile einen wichtigen Stellenwert in der Erzeugung und Auswertung von Daten am GEOMAR. Bisher wird dieser Stellenwert aber nur selten durch Publikationen oder andere Würdigungen unterstrichen. Der Technologietransfer des GEOMAR hat nun erstmals einen Preis für Software-Entwicklungen aller Art am GEOMAR ausgelobt. Die Einreichungen werden extern begutachtet. Die Preisverleihung findet im Rahmen der Digitalen Woche Kiel statt. Die Auszeichnung ist mit einem Preisgeld von 3.000 Euro dotiert. Details zum Bewerbungs-Verfahren folgen im Frühjahr.
Kontakt: Dr. Timm Schoening, tschoening(at)geomar.de
Das institutionelle Repositorium OceanRep enthält die gesamten wissenschaftlichen Publikationen des GEOMAR in digitaler Form, zum größten Teil als Open Access und unter Berücksichtigung der FAIR-Prinzipien zur Förderung von Open Science als Paradigma für die digital arbeitende Wissenschaft. OceanRep enthält neben Nachweisen zu traditionellen Publikationsformen wie Zeitschriftenartikel, Bücher, Hochschulschriften etc. auch Patente, Lehrmaterialien, Berichte, Software und Videos. OceanRep ist zudem angeschlossen an verschiedene Publikationsportale, wie OpenAIRE oder BASE. Ein besonderes Merkmal von OceanRep ist die Verknüpfbarkeit von Publikationen mit den dazugehörigen Forschungsdaten, die z.B. in OSIS oder Pangaea veröffentlicht wurden, sowie mit Expeditionen, Projekten und Modellen. Die Bibliothek vergibt auch entsprechende Persistent Identifier (hier: DOIs) für Fahrberichte, Software, etc. Die Mitgliedschaft der Bibliothek im ORCID-Konsortium ermöglicht seit neuestem die Verknüpfung der Publikationen mit der ORCID-Identität der Wissenschaftlerinnen und Wissenschaftler des GEOMAR im OceanRep. In Vorbereitung ist die Einrichtung der GEOMAR-Bibliothek als Trusted Organization, wodurch die Bibliothek die Forschenden bei der Verwaltung ihrer ORCID-Einträge unterstützen kann. Neben diesen Dienstleistungen bietet die Bibliothek Beratung, Workshops und Unterstützung bei konkreten Fragen zum (digitalen) Publizieren, zu Copyright-Fragen und ähnlichem an. Zudem vertritt die Bibliothek das GEOMAR im Helmholtz-Arbeitskreis Open Science und arbeitet als Mitglied in der Task Group für die Open Science Transformation an den Richtlinien der Helmholtz-Gemeinschaft für Open Science mit.
https://oceanrep.geomar.de
Kontakt: Barbara Schmidt, bschmidt(at)geomar.de und Heidi Düpow, hduepow(at)geomar.de
Das GEOMAR besitzt bereits umfangreiche Expertise in vielen Bereichen der Digital Science. Um diese Expertise über Arbeitsgruppen, Forschungseinheiten und -bereiche effektiver zu vernetzen, haben sich diverse informelle Gruppen gebildet, um vorhandene Expertise sichtbar zu machen, Ansprechpersonen zu benennen und den Informationsaustausch zu beschleunigen. Diese als Knowledge Hubs bezeichneten Gruppen kommunizieren über Mailinglisten und Wikis. Die Themen der Hubs sind bei den Digital Science Mondays präsent und einzelne Knowledge Hubs sind Anknüpfungspunkte zu parallelen Initiativen innerhalb des Forschungsbereichs Erde und Umwelt und der gesamten Helmholtz-Gemeinschaft. Knowledge Hubs existieren zu Unterwasserkommunikation, Software-Entwicklung, Unterwasserkameras und Datenmanagement. Weitere zu Künstlicher Intelligenz, Modellierung und Robotik sind in Vorbereitung.
Kontakt: Dr. Timm Schoening, tschoening(at)geomar.de und Sören Lorenz, slorenz(at)geomar.de