Diseñar nuevos sistemas ópticos desde cero puede ser una tarea intimidante, sobre todo si el sistema que estamos tratando de hacer es uno que debemos acertar antes de que se pueda construir nada porque, sencillamente, los componentes críticos aún no existen. No es más que un producto de nuestra imaginación y en realidad forma parte de nuestra tarea definirlo. Situaciones similares surgirán cuando exploremos diferentes diseños y queramos aprender cómo funcionan las cosas antes de emprender la tarea de construirlas.
Imaginemos esto. Hay que encontrar los requisitos para un sistema que nunca hemos estudiado antes y si hay un artículo científico que quizá esté relacionado con lo que necesitamos, ¿lo vamos a encontrar siquiera? No es raro que reinventemos la rueda. Dirac reinventó el álgebra de Clifford cuando derivó las ecuaciones cuánticas para el electrón, así que obviamente esto nos pasa a los mejores. Así que asumamos que, en cualquier caso, la culpa es nuestra.
The go-to strategy at this point would be to get a model going—a map of sorts, but not just any map; it needs to be detailed enough to navigate through all the essential twists and turns (read: degrees of freedom), yet not so intricate that we don’t see the woods for the trees. Here lies our first challenge: unless this machine is a close cousin of something we’ve already mastered, our map is more guesswork than gospel. We’re somewhat in the dark about which paths (degrees of freedom) are the relevant ones, and which are just details.
Without the right compass (tools) to navigate the complexity, we’re at risk of oversimplifying our map, constrained more by our imagination than by the actual terrain.
Una forma de abordar este problema, que he descubierto que funciona bien, es emplear una expansión matemática bien conocida en torno al estado ideal del sistema estudiado, esencialmente una expansión de Maclaurin. Puesto que la herramienta que buscamos es una que libere nuestro análisis de nuestras propias limitaciones mentales, debe ser una que nos permita sondear nuestro sistema con un gran número de variables independientes.
Hay diferentes maneras de enfocar esto, pero una que he descubierto que funciona muy bien es el llamado muestreo de hipercubos latinos (LHS), a veces también denominado diseño de llenado de espacio.
Generating a LHS takes some time, but in most cases its usually less than a few minutes, even if the number of independent variables is large. The time to generating a LHS grows linearly with the number of variables and to the 3rd power with the number of samples. Luckily, this is only polynomial complexity, or “easy” if you ask Computational Complexity people.
Un ejemplo de cuando un gran número de DOF puede ser interesante es cuando se quiere derivar una especificación para un sistema óptico y los DOF son los coeficientes del polinomio de Zernike.
Lo que nos da la LHS es un conjunto de muestras distribuidas uniformemente en un espacio multidimensional, pero sigue dependiendo de nosotros hacer la pregunta correcta, y en este caso, prácticamente no hay preguntas incorrectas.
Así, por ejemplo, utilizando este conjunto de muestras, se puede establecer un conjunto de simulaciones que sondea la varianza de la propiedad, o podemos simular cómo alguna propiedad determinista depende de nuestra DOF. Ambas cosas pueden ser muy valiosas, pero antes de profundizar en ello, hablemos de cómo obtener algunos resultados para analizar.
Exapansión de segundo orden
Por simple que parezca, se trata de un enfoque muy valioso que ofrece perspectivas que a menudo se convierten en momentos "ajá".
A partir del LHS tenemos un conjunto de puntos, y utilizando estos puntos de muestreo en nuestro problema multidimensional, ejecutamos una cantidad igual de simulaciones para obtener un resultado numérico para cada uno. Sin embargo, haber hecho todo eso no es muy esclarecedor. Necesitamos reducir esta complejidad. Necesitamos resumir todas estas simulaciones, que podrían ser fácilmente varios miles, en algo que podamos comprender, algo que separe la paja del trigo, por así decirlo.
La forma de hacerlo es intentar expresar nuestros resultados mediante una expansión de segundo orden,
Esto es muy parecido a la forma en que expresaríamos una expansión MacLaurin, pero la cuestión es que el gradiente y el hessiano siguen siendo desconocidos y tenemos que encontrarlos. ¿Podemos hacerlo?
Sí que podemos. Tenemos mucha información y encontrar el coeficiente de v y H es un problema lineal. Para un 2 DOF, tenemos 1 incógnita "c", a incógnitas en el término lineal "v" y 2 + 1 en "H"porque H es simétrico. Para 3 DOF, tenemos 1 + 3 + 3 + 2 + 1 y así sucesivamente. Esto no es más que álgebra lineal. Nuestros miles de simulaciones y la pseudoinversión de More Penrose nos darán esas incógnitas más rápido de lo que podemos decir "solución numérica".
Y es ahora cuando empieza lo interesante. Suponiendo que nuestras expansiones de 2º orden sean buenas, hemos reducido a menudo miles de simulaciones a un modelo que ahora podemos empezar a desmontar aún más.
Lo primero que se suele hacer tras obtener la expansión es comprobar lo bien que ésta reproduce los miles de resultados simulados. Muy a menudo, la correlación entre el modelo y las simulaciones es superior a 99%. Yo consideraría que 95% apenas es útil, pero el resultado habitual ronda los 99% o es mejor. Por supuesto, dependerá de cómo sea la propiedad subyacente, si nuestro modelo numérico es para una propiedad estadística o no.
Antes de que hayamos jugado con este modelo, no lo sabemos, pero todavía tengo que encontrar un caso que no pueda ser transformado de alguna manera que permita a esta expansión capturar esencialmente toda la varianza de nuestras simulaciones.
Ahora llegamos a la parte en la que podemos cosechar los beneficios de nuestro duro trabajo. Típicamente hay tres tipos de resultados, o bien la expansión está dominada por el término lineal, o el término cuadrado o es mixta, que en realidad es bastante interesante porque nos dice que nuestra expansión no está alrededor de un mínimo.
Si domina el término lineal, pues ya está. No hay que hablar de interacciones entre los DOF. Caso cerrado. Nuestro sistema era sencillo, y si antes no lo entendíamos, ahora seguro que sí.
La cosa se pone más interesante cuando el término de segundo orden domina la expansión, porque ahora hay más cosas que aprender. Lo que hay que hacer aquí es definitivamente llamar más álgebra lineal en servicio y reescribir H como,
mediante la descomposición de valores singulares, abreviada SVD.
If you’ve come this far and choose not to seize this opportunity, it would be tantamount to Neo taking the blue pill, opting to sleep and believe whatever he wants to believe. Never take the blue pill.
Si tu sistema necesita expresarse en términos de una matriz de segundo orden, tienes que quedarte en el país de las maravillas y dejar que la SVD te muestre hasta dónde llega el agujero del conejo.
This is not just a theoretical game of numbers. You may need to know this when designing your optics because, not only does it tell you that certain combinations of aberration need to be optimized together, the diagonal elements of Σ also tell you how important each of those combinations really are which is an invaluable hint what the merit function should suppress the most.
Entonces, ¿qué ocurre con el caso mixto, en el que tanto la parte lineal como la parte cuadrada contribuyen significativamente al modelo? Éste es realmente interesante porque nos dice que, contrariamente a lo que creíamos al principio, el sistema no se expandió en torno al estado ideal.
Este caso requiere un poco de precaución porque la solución depende del modelo e incluso entonces, puede apuntar a un nuevo mínimo i fuera del volumen sondeado por el conjunto inicial de puntos de muestreo. Puede que siga siendo correcto, pero no puede darse por sentado.
Supongamos que aplicamos esta teoría a algo como el acoplamiento de fibras. Manteniendo el espíritu de que no sabemos cómo funciona, utilizamos los polinomios de Zernike como grados de libertad y, como función de prueba, calculamos la pérdida de inserción en función de nuestros grados de libertad.
En primer lugar, definiríamos cuántos DOF nos interesa estudiar. Digamos que nos detenemos en Z16. Sabemos que Z1 no suele importar, pero los siguientes sí, así que 15 DOF.
A continuación, generamos 1024 puntos de muestra sobre 15 DOF utilizando el LHS. El LHS suele generar puntos de muestra sobre un hipercubo, por lo que necesitamos escalar esos valores a algo razonable. Si no sabemos nada sobre el sujeto, probablemente deberíamos empezar con valores pequeños, muy pequeños. Entonces, quizás repitamos el proceso hasta que encontremos que el modelo que calculamos ya no se ajusta muy bien a los datos o hasta que alcancemos un rango de valores que creamos relevante para nuestro sistema.
Ahora, saltamos un poco en el tiempo y 1024 simulaciones de pérdida de inserción después, tenemos nuestra función f(x,....) y algo que modelar. (Esta simulación suponía una apodización de 2 y un modo fundamental gaussiano. Este blog no trata tanto de fibras monomodo, así que perdonen las suposiciones simplificadas sobre fibras monomodo).
Una vez hallados los coeficientes de c, v, y Hpodemos ver cómo el modelo ha captado nuestras simulaciones,
Como era de esperar, obtuvimos una buena correlación entre las simulaciones y la expansión del modelo. Dado que la óptica física sólo se describe mediante la integral de solapamiento, era de esperar. Al fin y al cabo, se supone que este es un ejemplo del que aprender.
Ahora también podemos ver qué parte de esta correlación procede del término lineal,
Y de nuevo, como era de esperar, la correlación es un cero (estadístico). Hemos modelado algo que tiene un mínimo en cero aberraciones. Se espera que la parte lineal desaparezca. Así que ahora, echemos un vistazo al término cuadrado.
Espero que a estas alturas, sea bastante obvio que vamos a utilizar la Descomposición de Valor Singular, ¿recuerdas la píldora roja, verdad? Por lo tanto, lanzamos nuestro H en el SVD y lo primero que hay que escrutar son los valores singulares,
Los valores reales en el eje Y no son tan interesantes, después de todo, dependen del volumen de nuestro hipercubo de prueba que utilizamos para muestrear nuestro problema. Lo que es más interesante es la estructura. Nuestro problema se ha reducido a casi 3 variables independientes, más 2 mucho menos importantes. Echemos un vistazo,
Empezamos con 1024 valores simulados sobre 15 dimensiones de algo de lo que (pretendíamos) no saber nada y acabamos con 3 contribuciones importantes a una propiedad que queríamos entender.
No es un resultado inusual cuando se realiza este tipo de análisis. Quizá la correlación no sea tan buena como en este ejemplo construido, pero con alguna transformación de los datos, el modelo de 2º orden puede capturar esencialmente toda la varianza de la simulación.
Perhaps the most valuable aspect of this type of analysis is that we can take on a much larger number of degrees of freedom and not restrict ourselves by our ability to untangle the complexity, or to connect to the map metaphor, there are no trees. Woods and hills is all we see. From this vantage point, the big picture is all there is, and all we paid for it was computer time.
Litografía óptica de alta gama, de qué se trata La litografía EUV parece ciencia ficción hecha realidad: espejos con suavidad a nivel atómico, luz...
Intro Durante la mayor parte de mi carrera en óptica, he simulado imágenes de moduladores espaciales de luz y, sobre todo, de SLM...
Por qué WaveMe ¿Busca una solución que incluya una cámara de visión? ¿Desea una aplicación de alto rendimiento que le permita...
Este Tech-Talk trata sobre el desarrollo tecnológico en general, pero quizá más concretamente sobre el desarrollo tecnológico incremental. Obviamente, está influida por...
Supongo que estoy en una misión, una misión para moderar el asombro que la gente parece sentir por lo relacionado...
Introducción Con esta charla técnica, me gustaría ofrecer algunas perspectivas sobre la construcción de un marco de modelado físico con Open...