Wir verarbeiten mit Methoden der Fernerkundung optische Daten und Radardaten von Flugzeugen oder Satelliten-gestützten Erdbeobachtungsmissionen. Unsere Datenverarbeitung ist schnell und effizient und kann hoch genaue Karten zur Landbedeckung und deren Veränderungen herstellen. Zudem können wir Geostatistiken aus Daten von Plattformen wie Global Forest Watch (GFW) oder der globalen Waldbrandüberwachung der NOAA und NASA verarbeiten.
Die gesammelten Daten geben uns Einblicke in die Nutzung der Flächen, Vegetationstypen, Vegetationszustand, menschliche Siedlungen und sonstige Infrastruktur sowie Veränderung all dieser Faktoren über die Zeit.
Wir arbeiten überwiegend mit Audiosensoren sowie Foto- und Videosensoren, können aber auch andere Technologien wie Tiertracking oder in Partnerschaft mit anderen z.B. Umwelt-DNA verwenden. Weil unsere Sensoren über die gesamte Projektlaufzeit im Gebiet angebracht sind und diese autonom 24 Stunden am Tag Daten aufzeichnen, können wir die Veränderungen in diesem Zeitraum messen und abbilden.
Für eine zielführende Datenerfassung unserer in-situ-Sensoren entwickeln wir an das Projekt und die Projekt-Parameter angepasste Strategien und bestimmen die Art der Sensoren, ihre Häufigkeit, die Koordinaten der Anbringung und ihre Aufnahmeintervalle.
Um ein Gebiet genauer untersuchen zu können nutzen wir Audiosensoren, welche die Geräuschkulisse, also alle akustischen Signale im Gebiet aufnehmen.
* Audio: Die Klanglandschaft eines Sekundärwaldes im Bundesstaat Campeche, México
Diese Aufnahmen werden von uns mit einer künstlichen Intelligenz überprüft und geben uns wichtige Einblicke in die Biodiversität des Gebiets.
Unsere Methode der Bioakustik ermöglicht uns Daten zu Tierpräsenz, Tierarten, Individuen bestimmter Tierarten, Tieraktivitäten, Anomalien in der Aktivität, Stress oder reproduktives Verhalten, Anwesenheit von Schädlingen oder invasiven Arten, Dichte von Haustieren, Fehlen von Tierarten, meteorologische Phänomene wie Regen und Wind und deren Dauer und Intensität oder umstürzende Bäume zu sammeln und so den Zustand des Ökosystems zu bewerten.
Zudem erhalten wir wichtige Daten über Eingriffe des Menschen, z.B. Schüsse, Wilderei, Kettensägen von Holzeinschlag, schwere Maschinen bei Bauwesen oder Mineralienabbau und Verkehr sowie deren Entfernung und Intensität erkennen. So haben wir die Möglichkeit auf kritische Entwicklungen im Projektgebiet und potenzielle Auswirkungen auf die Wertigkeit des Gebiets hinzuweisen.
Ganz nebenbei entstehen schöne Soundscapes also Klanglandschaften der unterschiedlichen Projekte.
Um die Biodiversität aber auch den Zustand eines Ökosystems bewerten zu können, nutzen wir zudem Foto- und Videosensoren, die uns besondere Einblicke in das Projektgebiet geben.
Auch hier entwickeln wir je nach Projekt passende Strategien zur Anbringung am richtigen Ort und Funktionsweise der Wildtierkameras. Die Positionierung der Kameras erfolgt immer unter Einbeziehung der lokalen Bevölkerung und im Einklang mit der Natur.
Die Aufnahmen liefern uns Daten zu Tierpräsenz, Tierarten, Dichte der Population, reproduktives Verhalten, Tiergesundheit, Ernährungszustand, Zustand des Ökosystems über Präsenz nicht kompatibler Arten, Fehlen von Tierarten, Individuen-Erkennung von bestimmten Tierarten und ermöglichen uns, mit Hilfe der künstlichen Intelligenz genaue Aussagen über den Zustand des Ökosystems zu treffen.
Ein schöner Nebeneffekt der wissenschaftlichen Arbeit sind seltene Aufnahmen von Tieren, die sich ganz ungestört in ihrem Habitat bewegen.
Zur Auswertung und Klassifizierung von Bildern, Videos und Audiodaten der in situ-Sensoren nutzen wir unsere eigenen Modelle, setzen aber auch auf etablierte Modelle wie: Cornell BIRDnet, e-BIRD, BatDetect. Alle uns vorliegenden Daten werden über ein selbstlernendes Bayes'sches Netzwerk zu einem modellierten Indikator namens Ökosystemgesundheit (Ecosystem Health) zusammengeführt, mit dem wir datenbasierte Aussagen über den Zustand des Ökosystems treffen können.
Wir nutzen unsere selbstentwickelte MADXXX-Prozessierungsumgebung zur Ableitung von Fernerkundungsprodukten aus den Satellitendaten. Unsere eigene Machine-Learning-basierte Kartierung basiert meist auf Satellitendaten der USGS Landsat Missionen als auch der ESA Copernikus Daten (Sentinel Satelliten, Copernicus Land Monitoring Program).
Jedes unserer Projekte hat unterschiedliche Anforderungen, für die wir die entsprechenden Indikatoren untersuchen. Um eine wirklich individuelle Lösung für diese Anforderungen zu bieten, entwickeln und trainieren wir unsere eigenen Modelle zur Datenverarbeitung.