
In den letzten Jahren haben Informatiker immer ausgefeiltere Algorithmen entwickelt, um die Bewegungen von Roboteragenten zu steuern. Dazu gehören MPC-Strategien (Model Predictive Control), die ein Modell der Dynamik des Agenten verwenden, um sein Annäherungsverhalten an ein bestimmtes Ziel zu optimieren und gleichzeitig eine Reihe von Einschränkungen zu erfüllen (z. B. nicht auf Hindernisse zu stoßen).
Modellieren Sie prädiktive Steuerstrategien und Technologien für künstliche neuronale Netze
Real-Time Neural MPC ist ein Framework, das komplexe Modellarchitekturen basierend auf künstlichen neuronalen Netzen (KNNs) in ein MPC-Framework für mobile Roboter (z. B. Quadrotoren-Drohnen) integriert. Es wurde kürzlich von Forschern der Technischen Universität München und der Universität Zürich entwickelt. Diese Idee, über die in IEEE Robotics and Automation Letters berichtet wird, erweitert eine Idee, die zuvor von der Robotics and Perception Group der Universität Zürich entwickelt wurde.
Tim Salzmann und Markus Ryll Tech, Forscher der Autonomous Air Systems Group an der Technischen Universität München, sagten: „Wir sind auf die hervorragende Arbeit der Robotics and Sensing Group unter der Leitung von Davide Scaramuzza gestoßen, um ihre Kernidee, Daten zu haben, zu entwickeln -gesteuerte (erlernte) Komponenten, die „traditionelle“ Steueralgorithmen antreiben Wir waren sofort fasziniert.
„Nachdem wir einen Proof-of-Concept entwickelt hatten, um ihren Ansatz unter Verwendung von Gaußschen Prozessen (GPs) auf allgemeine neuronale Netze (Deep Learning Models) auszudehnen, präsentierten wir unsere Idee der Robotics and Perception Group an der Universität Zürich. Von diesem Zeitpunkt an schritten die technischen Arbeiten und Tests der beiden Labore gemeinsam voran und entfachten eine neue Partnerschaft.“
Deep-Learning-Modelle und Online-MPC-Optimierung werden in dem von Salzmann, Ryll et al. vorgeschlagenen neuen Framework kombiniert. Deep-Learning-Ausdrucksmodelle erfordern viel Rechenleistung. Dennoch kann das Framework spezialisierte Hardware (GPUs) verwenden, um diese Modelle effizient online in Echtzeit zu rendern. Dadurch können ihre Systeme in Echtzeit die beste Vorgehensweise für die Roboter vorhersagen.
Salzmann und Ryll sagten: „Das Real-Time Neural MPC-Framework ermöglicht es den beiden Domänen, optimale Steuerung und Deep Learning zu kombinieren, während beide Teile ihre eigenen hochoptimierten Frameworks und Rechengeräte nutzen können. „So kann die Steuerungsoptimierung in C-Code durchgeführt werden, der auf der CPU kompiliert wird, während Deep-Learning-Berechnungen auf einer GPU in PyTorch/Tensorflow durchgeführt werden können. Dies ermöglicht den Einsatz von Deep Learning in Anwendungen, die bisher unpraktisch waren, wie z. B. die optimale Steuerung von Quadrotoren an Bord.“
Forscher evaluieren ihren Rahmen durch eine Reihe von Simulationen und Feldtests. In diesen Studien wird es insbesondere verwendet, um die Bewegungen eines hochmobilen Quadrotors in Echtzeit zu steuern.
Die Fähigkeit, neuronale Netztopologien mit einer 4.000-mal höheren parametrischen Kapazität zu verwenden als die, die zuvor verwendet wurden, um die Bewegungen mobiler Roboter in Echtzeit zu regulieren, ermöglichte es ihnen, sehr vielversprechende Ergebnisse zu erzielen. Sie entdeckten auch, dass das von ihnen entwickelte Framework räumliche Tracking-Fehler im Vergleich zu herkömmlichen MPC-Ansätzen ohne eine Deep-Learning-Komponente um bis zu 82 % reduzieren kann.
Laut Salzmann und Ryll „suchen wir in der Robotik nach sinnvollen Mustern der Dynamik geregelter Systeme und ihrer Interaktion mit der Umgebung (zB aerodynamische Effekte, Reifenreibung etc.)“. „Obwohl diese oft schwer zu analysieren sind, können lernbasierte Methoden, insbesondere solche, die neuronale Netze verwenden, Dynamiken und Interaktionseffekte erfassen. Allerdings steigt die Genauigkeit des Modells mit der Größe des neuronalen Netzes. Wenn Deep-Learning-Modelle in neuralem Echtzeit-MPC verwendet werden, ist das Modell viel leistungsfähiger und effizienter in der prädiktiven Steuerung, als dies zuvor möglich war.“
GPU-Chips halten langsam Einzug in eingebettete Systeme, wie die kürzlich vorgestellte Nvidia Jetson-Plattform zeigt. Dieses Forscherteam hat in Kürze ein Framework entwickelt, das es Designern ermöglicht, die hohe Vorhersagekraft ausgeklügelter datengesteuerter KI-Techniken zu nutzen, um die Dynamik und Interaktionen von Robotern mit der Umgebung besser zu modellieren, das Unfallrisiko zu verringern und die Navigationsfähigkeiten durch Integration zu verbessern GPU-Chips.
Salzmann und Ryll stellten fest, dass es viele unerforschte Möglichkeiten für weitere Studien gibt. „Die Ausgabe von Deep-Learning-Methoden kann für Situationen, die nicht in den Trainingsdaten enthalten sind, unvorhersehbar sein (Non-Distributed OOD). Die Robustheit bei OOD-Bedingungen ergibt sich aus der Erkennung dieser Bedingungen und der Bereitstellung einer Rückfallebene für die Steuerung zur Stabilisierung des Systems.“
Quelle: techxplore.com/news
Günceleme: 13/03/2023 14:09