Schwierige Probleme mit probabilistischem Rechnen lösen

Schwierige Probleme mit probabilistischem Rechnen lösen
Schwierige Probleme mit probabilistischem Rechnen lösen

Nach dem Konzept der Rechenkomplexität haben mathematische Probleme unterschiedliche Schwierigkeitsgrade, je nachdem, wie einfach sie gelöst werden können. Während ein herkömmlicher Computer einige Probleme (P) in Polynomialzeit lösen kann – d. h. die zum Lösen von P benötigte Zeit ist eine Polynomfunktion der Größe der Eingabe – scheitert er oft daran, NP-Probleme zu lösen, die exponentiell mit der Problemgröße und skalieren kann daher nicht in Polynomialzeit gelöst werden. Daher können NP-Probleme, die groß genug sind, nicht mit herkömmlichen Computern gelöst werden, die auf Halbleiterbauelementen aufgebaut sind.

Aufgrund ihrer Fähigkeit, eine beträchtliche Anzahl von Operationen gleichzeitig auszuführen, gelten Quantencomputer in dieser Hinsicht als vielversprechend. Dadurch wird das NP-Problemlösungsverfahren beschleunigt. Viele physikalische Anwendungen sind jedoch sehr empfindlich gegenüber Temperaturänderungen.

Infolgedessen erfordert der Einsatz von Quantencomputern oft raue experimentelle Bedingungen wie extrem niedrige Temperaturen, was ihre Herstellung erschwert und ihre Kosten erhöht.

Glücklicherweise ist das probabilistische Computing eine weniger bekannte und noch unentdeckte Alternative zum Quantencomputing. Um NP-Probleme effektiv zu lösen, verwendet stochastisches Rechnen sogenannte "stochastische Nanogeräte", deren Betrieb von thermischen Schwankungen abhängt. Thermische Fluktuationen helfen im Gegensatz zu Quantencomputern, probabilistische Berechnungsprobleme zu lösen. Infolgedessen ist probabilistisches Rechnen praktischer in alltäglichen Situationen zu verwenden.

Forscher haben die Kapazität probabilistischer Berechnungen bewiesen, indem sie stochastische Nanogerätenetzwerke simulierten, um spezifische NP-Probleme zu lösen, und lieferten dringend benötigte Informationen über diese praktikable Alternative. Die von Professor Peter Bermel von der Purdue University geleitete Forschung wurde im Journal of Photonics for Energy (JPE) veröffentlicht.

Das "Ising-Modell", ein Standardmodell, wurde von Forschern verwendet, um eine Vielzahl physikalischer und mathematischer Themen zu simulieren. Auch der als „Hamiltonian“ bekannte Energieoperator kann NP-Probleme beschreiben. Der Hamiltonoperator wurde ursprünglich entwickelt, um die Wechselwirkungen magnetischer Dipolmomente von Atomspins zu modellieren. Im Wesentlichen erfordert die Lösung eines NP-Problems die Lösung des zugehörigen Ising-Hamilton-Operators.

Diese Probleme werden mit probabilistischen Rechengeräten gelöst, die aus optisch parametrischen Oszillatoren (OPOs) und stochastischen kreisförmigen Nanomagnetnetzwerken mit niedrigen thermischen Barrieren bestehen.

Forscher haben ein solches Nanomagnet-Netzwerk mithilfe bestehender Herstellungstechniken aktiviert. Sie wandten dies dann an, um die Ising-Hamiltonianer von vier NP-vollständigen Problemen aus der Zahlentheorie im Zusammenhang mit der kombinatorischen Optimierung zu lösen. NP-vollständige Probleme sind Probleme, die keinen effizienten Lösungsalgorithmus haben. Dazu gehören ganzzahlige lineare Programmierung, binäre ganzzahlige lineare Programmierung, vollständige Abdeckung und Zahlenpartitionierung.

Die theoretische Lösung des Ising-Modells (Boltzmannsches Gesetz) und die Simulationsergebnisse der ersten drei Probleme mit 3, 3 und 6 probabilistischen Bits (p-Bits) stimmten perfekt überein. Simulationen von fünf verschiedenen Full-Coverage-Problemen mit 3, 6, 9, 12 und 15 p-Bits zeigten eine ähnliche Übereinstimmung zwischen Modellierung und Theorie. Dies zeigte, dass Frameworks für probabilistisches Computing skaliert werden konnten.

Laut Bermel „ist der Schlüssel, um probabilistische Berechnungen zu einer leistungsstarken und praktikablen Alternative zu herkömmlichen Computertechniken zu machen, die effektive Skalierung mit der Aufgabengröße. Sowohl Modelle als auch Experimente müssen verwendet werden, um festzustellen, welche Strategien am effektivsten sind.

Die Forscher schlagen vor, dass selbst wenn die angegebenen Simulationsergebnisse solide Ergebnisse für alle p-Bits (von 3 bis 15) zeigen, parallele Algorithmen helfen können, die Simulationskapazität weiter zu erhöhen. Der Übergang von Nanomagnet- zu OPO-Netzwerken kann eine effektive Problemlösung ermöglichen, wenn Parallelität nicht möglich ist. Das System kann einfach implementiert und über ein OPO-Netzwerk unter Verwendung bestehender Herstellungsverfahren wie CMOS-Technologie abgebildet werden. Als Ergebnis können schließlich stochastische Nanomagnete mit niedrigen Energiebarrieren für probabilistische Berechnungen konstruiert werden.

Laut Sean Shaheen, Professor an der University of Colorado Boulder und JPE-Chefredakteur: „Da künstliche Intelligenz und wissenschaftliche/Unternehmensinformatik in einem Ausmaß zunehmen, das erhebliche, wenn nicht dringende Bedenken hinsichtlich des Energieverbrauchs und des COXNUMX-Fußabdrucks aufwirft, nicht -Traditionelle Formen der Entwicklung von Computerhardware werden immer wichtiger.“

Diese Arbeit von Zhu, Xi und Bermel bietet einen realistischen Weg zu einer Technologie, die eine bedeutende Klasse von NP-vollständigen Problemen bewältigen kann. Die Arbeit demonstriert eine skalierbare, energieeffiziente Lösung, die das Potenzial hat, herkömmliche Hardware bei der Bewältigung rechenintensiver Aufgaben deutlich zu übertreffen, indem sie auf raffinierte Weise nichtlineare Netzwerke optischer Geräte verwendet, um die Ising-Berechnung voranzutreiben.

Quelle: techxplore.com/news

 

Günceleme: 03/05/2023 14:19

Ähnliche Anzeigen