Ein Unter-Wasser-Roboter.

Der autonome KI-getriebene Unter-Wasser-Roboter „DeeperSense“ soll Kamerabilder aus Sonardaten generieren.

Foto: your123 - stock.adobe.com / AndSus - stock.adobe.com

Bremen

KI: Können Roboter bald mit den Ohren sehen?

Autor
Von Josip Pejic
24. September 2021 // 15:00

In Bremen will eine Gruppe Wissenschaftler vom DFKI einem autonomen KI-getriebenen Unter-Wasser-Roboter beibringen, mit den Ohren zu sehen.

Taucher in ständiger Gefahr

Die Bergungstaucher des Technischen Hilfswerks leben und arbeiten mit der ständigen Gefahr: Sie müssen Verunglückte bergen oder nach Vermissten suchen, Dämme und Deiche sichern, Schweißarbeiten an Unterseekabeln und Schiffsrümpfen durchführen. Das Ganze oftmals in großen Tiefen, in trüben oder stark verschmutzten Gewässern mit schlechter Sicht. Wer die Orientierung verliert, gefährdet nicht nur den Erfolg des Einsatzes, sondern auch sein eigenes Leben.

Sowas hat noch keiner je versucht

Doch Abhilfe ist unterwegs: Am Robotics Innovation Center des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Bremen tüftelt eine Gruppe Wissenschaftler an einem autonomen, KI-getriebenen Unter-Wasser-Roboter, der auch im trübsten Gewässer den Überblick behält. Und das, obwohl die Kamera gar nicht zum Einsatz kommt, sondern nur ein Sonar. Gelingt es den Forschern, dem Roboter das Sehen mit den Ohren beizubringen, könnte er die Taucher des THW künftig bei gefährlichen Einsätzen in Hafen- und Seegebieten unterstützen. Doch das Risiko, dass das Projekt scheitert, ist nicht zu unterschätzen. Schließlich hat so etwas zuvor noch keiner versucht.


Wie der Roboter funktioniert, welche Hürden die Forscher bei der Entwicklung meistern müssen und ob die Technologie jemals zum Einsatz kommen wird, lest Ihr auf
NORD|ERLSEN.