ROS2KI-Box

Mit Hilfe von künstlichen neuronalen Netzen erhalten Systeme die Fähigkeit, verschiedene Objekte mit hoher Sicherheit visuell zu erkennen und zu segmentieren. Auf diese Weise können bspw. mobile Roboterplattformen sich an bestimmte Terrains anpassen oder Kollisionen vermeiden, aber auch Roboter in der Produktion können ihre Arbeitsabläufe optimieren.

Im Rahmen von CC-KING wurde eine KI-Box Architektur entwickelt, die modular aufgebaut ist und sich dank ROS2 leicht in verschiedene Hardwaresysteme integrieren lässt. Darüber hinaus wurde ein Detectron2 KI-Framework für das Training visueller Klassifikatoren implementiert und für leistungsschwache Embedded-Geräte angepasst.

Die KI-Box wurde als eingebettetes Gerät entwickelt, das vollständig modular ist und leicht in verschiedene Systeme, wie mobile Roboterplattformen und Produktionslinien, integriert werden kann, mit dem Ziel einer effizienten und präzisen Objekterkennung & Segmentierung sowie Personenverfolgung. Diese Funktionen wurden durch die Integration von Open-Source-Softwareeinheiten und Frameworks wie Robot Operating System 2 (ROS2) und Detectron2 ermöglicht. Das entstandene Framework zur Entwicklung als auch Laufzeitumgebung bietet somit die Grundlage für die schnelle Entwicklung von Prototypen zur KI-basierten, eingebetteten Objekterkennung und Segmentierung.

ROS2 ist ein in der Robotik weitverbreitetes Kommunikations-Framework mit einer großen Zahl an Bibliotheken. Es gewährleistet Kompatibilität und einfache Integration zwischen verschiedenen Hardware-Einheiten. Darüber hinaus bietet ROS2 Sicherheitsfunktionen mit vollständiger Verschlüsselung der Pakete, die über das Protokoll übertragen werden, sowie Echtzeitkommunikation durch die Verwendung von End-to-End-Middleware wie Data Distribution Service (DDS).

Detectron2 ist ein Open-Source KI-Framework zur Verarbeitung visueller Bilddaten und intelligenter Computer Vision. Es basiert auf den Grundlagen von MASK-RCNN und bietet gebrauchsfertige Modelle, die auf vortrainierten künstlichen neuronalen Netzen basieren. Es bietet die Funktionen, um Objekte mit hoher Sicherheit zu erkennen, zu klassifizieren und zu segmentieren. Darüber hinaus kann es menschliche Posen und Bewegungen mit Skelett-Tracking erkennen und verfolgen. Das Transfer-Learning ermöglicht ein effizientes Training von künstlichen neuronalen Modellen mit geringen Datenanforderungen.

In unserem Implementierungssetup, wie im Bild zu sehen, wurde ein ROS2-Wrapper entwickelt, der eine einfache und praktische Integration mit verschiedenen ROS2-kompatiblen Hardwareeinheiten wie z. B. verschiedenen Kameras ermöglicht. Zusätzlich verwaltet ROS2 den visuellen Eingangsdatenstrom für das Detectron2-Modell, sowie die verarbeiteten Ausgangsinformationen. Dieser Ansatz gewährleistet eine hohe Modularität, da die Ausgabe der KI-Box von mehreren unabhängigen Geräten im Netzwerk gelesen werden kann.

Um die trainierten neuronalen Modelle zur Objekterkennung und -segmentierung auf einem leistungsschwachen Embedded-Gerät einsetzen zu können, sieht das Framework Methoden wie Pruning, Quantisierung und Knowledge-Distillation vor.

Ros2KI-Box: Implementierungssetup

Bildverarbeitung, wie z. B. Objekterkennung und Segmentierung, ist für Roboter entscheidend, um die Umgebung in der sie arbeiten zu verstehen. Diese Technologie ermöglicht verschiedene Anwendungen für mobile Roboter, wie z. B. die aktive Vermeidung von Kollisionen, die Erkennung von Objekten von Interesse, die Durchführung einer visuellen Inspektion und die Navigation durch die Umgebung. Bildverarbeitung spielt auch eine wichtige Rolle bei der Optimierung von verschiedenen Produktionsprozessen als auch bei Erhöhung der Sicherheit in der Mensch-Roboter-Kollaboration Anwendungsfall. Im Rahmen von CC-KING wurde das KI-Box-Framework im Rahmen mobiler Roboteranwendungen getestet.