Understanding our marine ecosystems is important to protect the environment and promote the sustainable use of resources. Coastal processes are of of particular interest as the coastal regions have the largest maritime traffic and marine life. Observing these processes is a difficult task due to the harsh environmental conditions and the size of the area to be covered. To solve this task, arrays of robust sensors are required that can handle storms, saltwater, and the daily wear caused by the tides. The resulting amount of data is not manually processable and the chance that a sensor fails increases with growing infrastructure. This thesis proposes an approach to build virtual sensors based on machine learning to replace broken physical sensors. These virtual sensors are trained with sensor data from the Time Series Station Spiekeroog (TSS) and the Biodiversity-Ecosystem Functioning across marine and terrestrial ecosystems (BEFmate) project in the Wadden Sea (German Bight). In the first part of my work, I begin by explaining the data and its preprocessing. Next, an unsupervised extreme event detection task on the TSS data with a subsequent expert evaluation is presented. Then I propose an imputation method for longer consecutively missing values as they appear in our datasets. The method utilizes linear interpolation as its first step, but penalizes these interpolated values based on the length of the gaps with a k-nearest neighbors approach (penalized DTWkNN ensemble). In the second part, I design a neural network architecture to model broken sensors from the BEFmate project. The foundation is a bidirectional recurrent neural network with long short-term memory (bLSTM) that utilizes my time dimensionality reduction method exponential piecewise approximate aggregation (exPAA). Then, I introduce convolutional layers, uncertainty predictions, and my input quality based dropout layer (qDrop) to the architecture, which proves to outperform the architecture with only bLSTM layers. The final architecture has no fully connected layer and allows to determine the impact of individual time series steps on the prediction. This last update also removes a hyper-parameter by learning the noise function for the heteroscedastic uncertainy in separate learning run with a new loss function. Stefan Oehmcke Deep Learning of Virtual Marine Sensors Zusammenfassung Das Verständnis unserer Meeresökosysteme ist wichtig, um die Umwelt zu schützen und die nachhaltige Nutzung von Ressourcen zu fördern. Insbesondere sind Küstenprozesse interessant, da die Küstenregionen den größten Seeverkehr und das meiste Meeresleben aufweisen. Diese Prozesse zu beobachten ist eine schwierige Aufgabe aufgrund der harten Unweltbedingungen und der Größe des abzudeckenden Bereichs. Um diese Aufgabe zu lösen, werden robuste Sensoren benötigt, welche Stürme, Salzwasser und den täglichen Verschleiß der Gezeiten bewältigen können. Durch die wachsende Sensorinfrastruktur sind die anfallenden Datenmengen nicht mehr manuell verarbeitbar und die Wahrscheinlichkeit, dass ein Sensor ausfällt, steigt ebenfalls. Diese Arbeit stellt einen Ansatz vor, wie virtuelle Sensoren basierend auf maschinellem Lernen erstellt werden können, um nicht funktionierende physikalische Sensoren zu ersetzen. Diese virtuellen Sensoren werden mit Sensordaten von der Time Series Station Spiekeroog (TSS) und dem Biodiversity-Ecosystem Functioning across marine and terrestrial ecosystems (BEFmate)-Projekt im Wattenmeer (Deutsche Bucht) trainiert. Im ersten Teil meiner Arbeit erkläre ich zunächst die Daten und deren Vorverarbeitung. Als nächstes wird eine unüberwachte Extremereigniserkennungsaufgabe auf den TSS-Daten mit einer nachfolgenden Expertenauswertung präsentiert. Dann schlage ich eine Imputationsmethode für längere, fortlaufend fehlende Werte vor, wie sie in unseren Datensätzen vorkommen. Das Verfahren verwendet als ersten Schritt eine lineare Interpolation, aber bestraft diese interpolierten Werte basierend auf der Länge der Lücken mit einem k-nächste-Nachbarn-Verfahren (penalized DTWkNN ensemble). Im zweiten Teil entwickle ich eine neuronale Netzwerkarchitektur, um ausgefallene Sensoren aus dem BEFmate-Projekt zu modellieren. Die Grundlage ist ein bidirektionales rekurrentes neuronales Netzwerk mit LangzeitKurzzeitgedächtnis (bLSTM), welches meine zeitliche Dimensionalitätsreduktionsmethode exponential piecewise approximate aggregation (exPAA) verwendet. Dann führe ich Schichten mit Konvolutionen, Unsicherheitsvorhersagen und meine auf Eingangsqualität basierende Dropout-Schicht (qDrop) in die Architektur ein, welche bessere Ergebnisse erziehlt als die Architektur nur mit bLSTM-Schichten. Die finale Architektur hat keine vollständig verbundenen Netzwerkschichten und erlaubt es, die Auswirkung einzelner Zeitreihenschritte auf die Vorhersage zu bestimmen. Außerdem wird ein Hyperparameter entfernt, indem die Rauschfunktion für die heteroskedastische Unsicherheit in einem separaten Lernlauf mit einer neuen Verlustfunktion gelernt wird.