![]() |
| Künstlerische Darstellung meiner "Workbench" |
Für die langfristige Aufzeichnung von Umweltdaten und die bioakustische Forschung im NEXUS-Projekt ist eine saubere Datenbasis unerlässlich. Um die Validität der Ergebnisse für die kommende 365-Tage-Messreihe sicherzustellen, wurde die gesamte Verzeichnisstruktur im Google Drive grundlegend neu geordnet. Ein wesentlicher Aspekt hierbei ist die effiziente Aufbereitung der Daten für die wissenschaftliche Weiterverarbeitung.
Google Drive NEXUS Cloud
Ein zentrales Element des Projekts sind die mittels Python-Skripten erstellten Spektrogramme im Ordner 04_Visualizations_Spectrograms. Diese Grafiken sind weit mehr als reine Audiodarstellungen; sie fungieren als Datensynthese.
In jedes Spektrogramm werden synchronisierte Metadaten aus dem NEXUS-System implementiert:
Meteorologische Parameter: Temperatur, relative Luftfeuchtigkeit und Windgeschwindigkeit.
Physikalische Kennzahlen: Der atmosphärische Dämpfungskoeffizient ɑ, der die akustische Reichweite der Rufe maßgeblich beeinflusst.
Astronomische Daten: Mond-Elevation und Mondphase zur Untersuchung der Lunar Phobia.
Diese Zusammenführung erlaubt es, auf einen Blick zu erkennen, unter welchen physikalischen und astronomischen Bedingungen eine Detektion stattgefunden hat.
Bei der Analyse der akustischen Daten setzen wir auf das Modell BatDetect2. Es ist wichtig festzuhalten, dass dieses Projekt keinesfalls bestehende wissenschaftliche Standards oder etablierte Bestimmungsmethoden infrage stellen möchte. Unser Ziel ist vielmehr eine effiziente Vorauswahl (Pre-selection), um Experten die Arbeit mit den großen Datenmengen zu erleichtern.
BatDetect2 erkennt aktuell 14 der 25 in Deutschland vorkommenden Fledermausarten mit einer Sicherheit von etwa 88–90 %. Um die Qualität dieser Vorauswahl zu maximieren, haben wir das Verzeichnis Highlights (high-confidence data) geschaffen. Hier werden ausschließlich Spektrogramme abgelegt, bei denen die KI eine Konfidenz von über 80 % (0.8) erreicht hat. Dies stellt einen hochreinen Datensatz dar, der als verifizierte Grundlage für die weitere wissenschaftliche Betrachtung dienen kann.
Die Daten sind nun in vier Hauptkategorien unterteilt:
01_Acoustic_Raw_Data_TeensyBat: Unveränderliche WAV-Originalaufnahmen.
02_Analysis_Results_BatDetect2: KI-Ergebnisse, nach Detektionsschwellen (DT 0.2, 0.5 und 0.8) getrennt, um Soziallaute und Echolokation differenziert zu betrachten.
03_Environmental_Metrics_NEXUS: CSV-Logs des Sensorsystems (BME680, Wetterstation, GPS).
04_Visualizations_Spectrograms: Die oben beschriebenen kombinierten Datengrafiken inklusive der High-Confidence Highlights.
Zur Unterstützung externer Forscher wurden im Hauptverzeichnis eine liesmich.txt und eine readme.txt hinterlegt. Sie dokumentieren die Hardware-Spezifikationen und die Nomenklatur. Das System ist nun bereit für den Langzeitbetrieb, während wir parallel an der Optimierung der Hardware-Abschirmung (Stevenson Screen) arbeiten, um die Sensordaten weiter zu präzisieren.

Keine Kommentare:
Kommentar veröffentlichen