Methoden

Analysieren gekoppelter Systeme

Die Entwicklung neuer optischer Systeme von Grund auf kann eine einschüchternde Aufgabe sein, vor allem, wenn es sich um ein System handelt, das wir erst einmal richtig hinbekommen müssen, bevor es gebaut werden kann, weil die entscheidenden Komponenten einfach noch nicht existieren. Es ist lediglich ein Hirngespinst, und es ist eigentlich Teil unserer Aufgabe, es zu definieren. Ähnliche Situationen entstehen, wenn wir verschiedene Entwürfe erforschen und lernen wollen, wie die Dinge tatsächlich funktionieren, bevor wir uns an die Aufgabe machen, sie zu bauen.

Stellen wir uns also Folgendes vor. Sie müssen die Anforderungen für ein System finden, das wir noch nie untersucht haben, und wenn es eine wissenschaftliche Arbeit gibt, die vielleicht mit dem, was wir brauchen, zusammenhängt, werden wir sie überhaupt finden? Es ist nicht ungewöhnlich, dass wir das Rad neu erfinden. Dirac hat die Clifford-Algebra neu erfunden, als er die Quantengleichungen für das Elektron ableitete, also passiert das natürlich auch den Besten von uns. Gehen wir also einfach davon aus, dass wir in jedem Fall die Verantwortung tragen.

The go-to strategy at this point would be to get a model going—a map of sorts, but not just any map; it needs to be detailed enough to navigate through all the essential twists and turns (read: degrees of freedom), yet not so intricate that we don’t see the woods for the trees. Here lies our first challenge: unless this machine is a close cousin of something we’ve already mastered, our map is more guesswork than gospel. We’re somewhat in the dark about which paths (degrees of freedom) are the relevant ones, and which are just details.

Without the right compass (tools) to navigate the complexity, we’re at risk of oversimplifying our map, constrained more by our imagination than by the actual terrain.

Reduzierung der Komplexität


Eine Möglichkeit, damit umzugehen, die sich meiner Meinung nach bewährt hat, ist die Verwendung einer bekannten mathematischen Erweiterung um den Idealzustand des untersuchten Systems, im Wesentlichen eine Maclaurin-Erweiterung. Da wir ein Werkzeug suchen, das unsere Analyse von unseren eigenen mentalen Beschränkungen befreit, muss es eines sein, das uns erlaubt, unser System mit einer großen Anzahl unabhängiger Variablen zu untersuchen.

Es gibt verschiedene Möglichkeiten, dies anzugehen, aber eine, die meiner Erfahrung nach sehr gut funktioniert, ist das so genannte Latin Hypercube Sampling (LHS), das manchmal auch als raumfüllendes Design bezeichnet wird.

Generating a LHS takes some time, but in most cases its usually less than a few minutes, even if the number of independent variables is large. The time to generating a LHS grows linearly with the number of variables and to the 3rd power with the number of samples. Luckily, this is only polynomial complexity, or “easy” if you ask Computational Complexity people.

Ein Beispiel dafür, dass eine große Anzahl von DOFs interessant sein kann, ist, wenn man eine Spezifikation für ein optisches System ableiten möchte und die DOFs die Koeffizienten des Zernike-Polynoms sind.

Die LHS liefert uns eine Reihe von gleichmäßig verteilten Stichproben in einem mehrdimensionalen Raum, aber es liegt immer noch an uns, die richtige Frage zu stellen, und in diesem Fall gibt es praktisch keine falschen Fragen.

So kann man z. B. mit diesem Satz von Stichproben eine Reihe von Simulationen erstellen, die die Varianz der Eigenschaft untersuchen, oder man kann simulieren, wie eine deterministische Eigenschaft von unseren DOF abhängt. Beides kann sehr wertvoll sein, aber bevor wir tiefer in die Materie eintauchen, lassen Sie uns darüber sprechen, wie wir einige Ergebnisse zur Analyse erhalten.

Exapansion zweiter Ordnung
So simpel dies auch klingen mag, es ist ein sehr wertvoller Ansatz, der zu Einsichten führt, die nicht selten zu Aha-Erlebnissen werden.

Von der LHS haben wir eine Reihe von Punkten, und wenn wir diese Stichprobenpunkte für unser mehrdimensionales Problem verwenden, führen wir eine gleiche Anzahl von Simulationen durch, um ein numerisches Ergebnis für jeden Punkt zu erhalten. Das alles ist jedoch nicht sehr aufschlussreich. Wir müssen diese Komplexität reduzieren. Wir müssen all diese Simulationen, die leicht mehrere Tausend sein können, in etwas zusammenfassen, das wir erfassen können, etwas, das sozusagen die Spreu vom Weizen trennt.

Der Weg dazu ist der Versuch, unsere Ergebnisse durch eine Erweiterung zweiter Ordnung auszudrücken,

\[ f(x_1,x_2, \ldots,x_n) = c + \vec{v}\cdot\vec{x} + \vec{x}^T H \vec{x}\]

Dies ähnelt sehr der Art und Weise, wie wir eine MacLaurin-Erweiterung ausdrücken würden, aber der Punkt ist, dass der Gradient und die Hessian immer noch unbekannt sind und wir sie finden müssen. Können wir das tun?

Ja, das können wir. Wir haben eine Fülle von Informationen und finden den Koeffizienten von v und H ist ein lineares Problem. Für eine 2 DOF haben wir 1 Unbekannte "c", zwei Unbekannte im linearen Term "v" und 2 + 1 in "H", denn H ist symmetrisch. Für 3 DOF haben wir 1 + 3 + 3 + 2 + 1 und so weiter. Das ist einfach lineare Algebra. Unsere Tausenden von Simulationen und die Pseudo-Inverse von More Penrose werden uns diese Unbekannten schneller liefern, als wir "numerische Lösung" sagen können.

Zu den guten Sachen

Und jetzt beginnt der interessante Teil. Unter der Annahme, dass unsere Expansionen 2. Ordnung gut sind, haben wir oft Tausende von Simulationen zu einem Modell reduziert, das wir jetzt noch weiter auseinandernehmen können.

Das erste, was man in der Regel tut, nachdem man die Erweiterung erhalten hat, ist zu prüfen, wie gut diese Erweiterung die Tausenden von simulierten Ergebnissen reproduziert. Oftmals ist die Korrelation zwischen dem Modell und den Simulationen größer als 99%. Ich würde 95% als kaum brauchbar ansehen, aber das übliche Ergebnis liegt bei 99% oder besser. Es hängt natürlich davon ab, wie die zugrunde liegende Eigenschaft aussieht, ob unser numerisches Modell für eine statistische Eigenschaft steht oder nicht.

Bevor wir mit diesem Modell gespielt haben, wissen wir das nicht, aber ich habe noch keinen Fall gefunden, der nicht in irgendeiner Weise transformiert werden könnte, so dass diese Erweiterung im Wesentlichen die gesamte Varianz aus unseren Simulationen erfassen kann.

Analyse der Expansion

Jetzt kommen wir zu dem Teil, wo wir die Früchte unserer harten Arbeit ernten können. Es gibt in der Regel drei Arten von Ergebnissen: Entweder wird die Ausdehnung durch den linearen Term oder den quadratischen Term dominiert oder sie ist gemischt, was eigentlich recht interessant ist, weil es uns sagt, dass unsere Ausdehnung nicht um ein Minimum herum ist.

Wenn der lineare Term dominiert, dann war's das wohl. Es gibt keine Wechselwirkungen zwischen den DOFs, über die man reden müsste. Der Fall ist abgeschlossen. Unser System war einfach, und wenn wir es vorher nicht verstanden haben, so wissen wir es jetzt.

Interessanter wird es, wenn der Term zweiter Ordnung die Expansion dominiert, denn jetzt gibt es mehr zu lernen. Hier sollte man auf jeden Fall mehr lineare Algebra in Anspruch nehmen und Folgendes umschreiben H als,

\[ H = U\Sigma V^T \]

mit Hilfe der Singulärwertzerlegung (Singular Value Decomposition, kurz: SVD).

If you’ve come this far and choose not to seize this opportunity, it would be tantamount to Neo taking the blue pill, opting to sleep and believe whatever he wants to believe. Never take the blue pill.

Wenn Ihr System in Form einer Matrix zweiter Ordnung ausgedrückt werden muss, müssen Sie im Wunderland bleiben und sich von der SVD zeigen lassen, wie tief das Kaninchenloch ist.

This is not just a theoretical game of numbers. You may need to know this when designing your optics because, not only does it tell you that certain combinations of aberration need to be optimized together, the diagonal elements of Σ also tell you how important each of those combinations really are which is an invaluable hint what the merit function should suppress the most.

Wie sieht es nun mit dem gemischten Fall aus, bei dem sowohl der lineare als auch der quadratische Teil wesentlich zum Modell beitragen? Dieser Fall ist wirklich interessant, weil er uns zeigt, dass das System entgegen unserer ursprünglichen Annahme nicht um den idealen Zustand herum erweitert wurde.

In diesem Fall ist ein wenig Vorsicht geboten, da die Lösung modellabhängig ist, und selbst dann kann sie auf ein neues Minimum i außerhalb des Volumens hinweisen, das von der anfänglichen Gruppe von Probenahmestellen untersucht wurde. Das kann immer noch in Ordnung sein, aber es kann nicht als selbstverständlich angesehen werden.

Es ist Zeit für ein Beispiel

Nehmen wir an, wir würden diese Theorie auf etwas wie die Faserkopplung anwenden. In der Annahme, dass wir nicht wissen, wie es funktioniert, verwenden wir die Zernike-Polynome als Freiheitsgrade und berechnen als Testfunktion die Einfügedämpfung in Abhängigkeit von unseren Freiheitsgraden.

Zunächst müssen wir festlegen, wie viele DOF wir untersuchen wollen. Sagen wir, dass wir bei Z16 aufhören. Wir wissen, dass Z1 normalerweise keine Rolle spielt, aber die folgenden schon, also 15 DOF.

Als Nächstes erzeugen wir mit der LHS 1024 Stichprobenpunkte über 15 DOF. Die LHS generiert normalerweise Stichprobenpunkte über einen Hyperwürfel, so dass wir diese Werte auf einen vernünftigen Wert skalieren müssen. Wenn wir nichts über den Gegenstand wissen, sollten wir wahrscheinlich klein anfangen, wirklich klein. Dann können wir den Prozess so lange wiederholen, bis wir feststellen, dass das von uns berechnete Modell nicht mehr sehr gut zu den Daten passt, oder bis wir einen Wertebereich erreichen, den wir für unser System als relevant erachten.

Nun machen wir einen kleinen Zeitsprung und 1024 Simulationen der Einfügedämpfung später haben wir unsere Funktion f(x,....) und etwas zu modellieren. (Bei dieser Simulation wurde eine Apodisierung von 2 und eine gaußförmige Grundmode angenommen. In diesem Blog geht es nicht so sehr um Singlemode-Fasern, verzeihen Sie also die vereinfachten Annahmen über Singlemode-Fasern).

Sobald wir die Koeffizienten von c, v, und Hkönnen wir uns ansehen, wie das Modell unsere Simulationen erfasst hat,

Wie erwartet, ergab sich eine gute Korrelation zwischen den Simulationen und der Modellexpansion. Da die physikalische Optik nur durch das Überlappungsintegral beschrieben wird, war das auch zu erwarten. Schließlich soll dies ein Beispiel sein, von dem man lernen kann.

Nun können wir uns auch ansehen, wie viel von dieser Korrelation auf den linearen Term zurückzuführen ist, 

Und wieder ist die Korrelation erwartungsgemäß eine (statistische) Null. Wir haben etwas modelliert, das bei Null-Abweichungen ein Minimum hat. Es wird erwartet, dass der lineare Teil verschwindet. Schauen wir uns nun den quadratischen Term an.

Ich hoffe, dass es mittlerweile ziemlich offensichtlich ist, dass wir die Singular Value Decomposition verwenden werden, erinnern Sie sich an die rote Pille, richtig? Also, wir werfen unsere in die SVD ein, und das erste, was zu prüfen ist, sind die Singulärwerte,

Die tatsächlichen Werte auf der Y-Achse sind nicht so interessant, denn sie hängen vom Volumen unseres Test-Hyperwürfels ab, den wir für die Stichprobe unseres Problems verwendet haben. Was interessanter ist, ist die Struktur. Unser Problem hat sich auf fast 3 unabhängige Variablen reduziert, plus 2 viel weniger wichtige. Schauen wir uns das mal an, 

Zeit für ein Resümee.

Wir begannen mit 1024 simulierten Werten über 15 Dimensionen von etwas, von dem wir (vorgaben) nichts zu wissen, und endeten mit 3 wichtigen Beiträgen zu einer Eigenschaft, die wir verstehen wollten. 

Dies ist kein ungewöhnliches Ergebnis bei dieser Art von Analyse. Vielleicht ist die Korrelation nicht ganz so gut wie in diesem konstruierten Beispiel, aber mit einer gewissen Transformation der Daten kann das Modell zweiter Ordnung im Wesentlichen die gesamte Varianz der Simulation erfassen. 

Perhaps the most valuable aspect of this type of analysis is that we can take on a much larger number of degrees of freedom and not restrict ourselves by our ability to untangle the complexity,  or to connect to the map metaphor, there are no trees. Woods and hills is all we see. From this vantage point, the big picture is all there is, and all we paid for it was computer time. 

Jarek

Neueste Beiträge

EUV und der Stand der Lithografie

Optische High-End-Lithografie, worum geht es EUV-Lithografie wirkt wie real gewordene Science-Fiction: Spiegel mit atomarer Glätte, Licht...

vor 2 Wochen

Physikalische Optik auf dem Nvidia-GPU

Intro Die meiste Zeit meiner beruflichen Laufbahn in der Optik habe ich mich mit der Simulation der Abbildung von räumlichen Lichtmodulatoren, vor allem SLMs, beschäftigt...

vor 3 Wochen

Sofortige Sicht

Warum WaveMe Suchen Sie nach einer Lösung, die eine Vision-Kamera beinhaltet? Sie wollen eine leistungsstarke Anwendung, mit der Sie die...

vor 2 Monaten

Das Dilemma des Systemintegrators

In diesem Tech-Talk geht es um Technologieentwicklung im Allgemeinen, aber vielleicht noch spezieller um die schrittweise Entwicklung von Technologien. Er ist natürlich beeinflusst von...

vor 2 Monaten

Kann KI Ihren Code übernehmen?

Ich schätze, ich bin auf einer Mission, einer Mission, um die Ehrfurcht zu mäßigen, die die Menschen in Bezug auf... zu haben scheinen.

vor 3 Monaten

Physikalische Modellierung und OSS

Einleitung Mit diesem technischen Vortrag möchte ich einen Einblick in die Entwicklung eines physikalischen Modellierungsframeworks mit Open...

vor 5 Monaten