Die Enträtselung der Dynamik unseres Gehirns enthüllt flexible Modelle für maschinelles Lernen

Die Lösung der Dynamik unseres Gehirns enthüllt flexible Modelle für maschinelles Lernen
Die Lösung der Dynamik unseres Gehirns enthüllt flexible Modelle für maschinelles Lernen

Ein "flüssiges" neuronales Netzwerk, das dem Gehirn winziger Kreaturen nachempfunden ist, wurde letztes Jahr von MIT-Forschern enthüllt. Für praktische, sicherheitskritische Aufgaben wie Fahren und Fliegen sprechen wir von einer Klasse robuster, adaptiver maschineller Lernmodelle, die bei der Arbeit lernen und sich an veränderte Bedingungen anpassen können. Die Anpassungsfähigkeit dieser „flüssigen“ neuronalen Netze stärkt die Kommunikation unserer vernetzten Welt, was eine bessere Entscheidungsfindung für eine Vielzahl von zeitreihendatenintensiven Aufgaben wie Herz- und Gehirnüberwachung, Wettervorhersage und Aktienkurse bedeutet.

Mit zunehmender Anzahl von Neuronen und Synapsen in diesen Modellen werden sie jedoch rechenintensiv und erfordern umständliche Computerprogramme, um die komplexe Mathematik in ihrem Kern zu lösen. Und genau wie bei vielen physikalischen Phänomenen wird das Lösen all dieser Arithmetik mit der Größe schwieriger, was das Berechnen vieler kleiner Schritte erfordert, um zu einer Lösung zu gelangen.

Das gleiche Wissenschaftlerteam fand einen Weg, diesen Engpass zu verringern, indem es die Differenzialgleichung löste, die der Verbindung zweier Neuronen über Synapsen zugrunde liegt, um eine neue Klasse schneller und effizienter KI-Systeme zu enthüllen. Obwohl diese Modi viel schneller und skalierbarer sind als flüssige neuronale Netze, teilen sie dieselben flexiblen, kausalen, robusten und erklärbaren Eigenschaften.

Da sie auch nach dem Training klein und flexibel sind – im Gegensatz zu vielen traditionellen Modellen, die fest sind – kann diese Art von neuronalem Netz daher für jede Aufgabe verwendet werden, bei der es darum geht, im Laufe der Zeit Einblicke in Daten zu gewinnen.

„Closed Form Continuous Time“ (CfC) neuronale Netzwerkmodelle übertrafen ihre hochmodernen Gegenstücke in einer Vielzahl von Aufgaben, darunter ereignisbasierte sequentielle Bildverarbeitung, Modellierung der physikalischen Dynamik eines simulierten Laufroboters und menschliche Aktivitätserkennung Bewegungssensoren. Beispielsweise waren die neuen Modelle bei einer Stichprobe von 8.000 Patienten für eine medizinische Vorhersageaufgabe 220-mal schneller.

Laut MIT-Professorin Daniela Rus, Direktorin des Computer Science and Artificial Intelligence Laboratory (CSAIL) und leitende Autorin des neuen Papiers: „Neue Modelle für maschinelles Lernen, die wir ‚CfCs‘ nennen, konzentrieren sich auf die numerische Integration und ersetzen die Differentialgleichung das die Berechnung des Neurons mit einem geschlossenen Ansatz beschreibt, behält die schönen Eigenschaften von flüssigen Netzen bei, ohne dass dies erforderlich ist „CfC-Modelle sind effizient, kausal, komprimiert und erklärbar, um sie zu trainieren und vorherzusagen. Sie öffnen die Tür zu zuverlässigem maschinellem Lernen für sicherheitsrelevante Anwendungen.“

Wir können den sich ändernden Zustand der Welt oder eines Phänomens im Laufe der Zeit mit Differentialgleichungen berechnen, aber wir können dies nur Schritt für Schritt im Laufe der Zeit tun. Das Team wühlte in seinen Taschen voller mathematischer Tricks, um die perfekte Lösung zu finden.

Eine „geschlossene Form“-Lösung, die die gesamte Beschreibung eines gesamten Systems in einem einzigen Rechenschritt modelliert, um natürliche Ereignisse im Laufe der Zeit zu modellieren und vergangenes und gegenwärtiges Verhalten zu verstehen, z. B. das Erkennen menschlicher Aktivitäten oder des von einem Roboter verfolgten Pfads.

Ihr Modell ermöglicht es, diese Gleichung zu jedem Zeitpunkt in der Vergangenheit oder Zukunft zu berechnen. Außerdem geht die Berechnung viel schneller, da die Differentialgleichung nicht Schritt für Schritt gelöst werden muss.

Stellen Sie sich ein neuronales End-to-End-Netzwerk vor, das eine in ein Auto eingebaute Kamera verwendet, um Fahrinformationen bereitzustellen. Das Netzwerk wird darauf trainiert, Ausgaben wie den Lenkwinkel des Autos zu erzeugen. Im Jahr 2020 gelang es dem Team, ein Auto zu entwickeln, das von 19 Neuronen und einem kleinen Sensormodul mit 19-Knoten-Fluid-Neuronalnetzwerken angetrieben werden konnte. Jeder Knoten im System wird durch eine Differentialgleichung beschrieben. Da die Lösung in geschlossener Form eine gute Annäherung an die tatsächliche Dynamik des Systems ist, führt eine Änderung in diesem Netz zu genau dem Verhalten, das Sie suchen. Dadurch können sie das Problem mit noch weniger Neuronen lösen, wodurch der Prozess schneller und weniger rechenintensiv wird.

Quelle und weiterführende Literatur: techxplore.com/news/2022-11-brain-dynamics-flexible-machine-learning.html

Ähnliche Anzeigen

Schreiben Sie den ersten Kommentar

Ihr Kommentar