Einführung - CAD neu definieren
Wenn die meisten Menschen "CAD" hören, denken sie an 3D-Software für die mechanische Konstruktion, wie SolidWorks, AutoCAD oder CATIA. Es ist eine natürliche Assoziation: Die Werkzeuge sind visuell, taktil und greifbar. Aber sollte CAD im wörtlichen Sinne - die Verwendung von Computern zur Unterstützung des Designs - auf diesen mechanischen Bereich beschränkt sein? Ich weiß, das ist eine Suggestivfrage. Dennoch scheint ein Großteil der Optikindustrie immer noch in dieser Denkweise gefangen zu sein.
Aktuelle Tools - Mappings, nicht Design
Ich kann mir vorstellen, dass viele von denen, die dies lesen, denken: "Aber wir haben doch Zemax, oder Code-V", oder "Was ist mit LightTools, Oslo, oder Fred?". Das ist richtig. Wir haben diese Instrumente, und wir haben sie aus gutem Grund - sie funktionieren. Aber lassen Sie mich eine Gegenfrage stellen: Wie viele Parameter (oder Zahlen) kommen heraus im Vergleich zu denen, die hineingehen?
Was hat das mit irgendetwas zu tun? Nun, wenn ich 10 Zahlen eingeben muss und 10 Zahlen herausbekomme, geben uns diese Werkzeuge dann wirklich Antworten - oder bilden sie nur Eingaben auf Ausgaben ab, ohne wirkliche Erkenntnisse zu liefern? Woher wissen Sie, dass die Ergebnisse aussagekräftig sind, wenn Sie nicht bereits wissen, dass die Eingaben korrekt sind? Es mag plump klingen, aber die alte Computerregel gilt immer noch: Garbage in, garbage out. Eingaben sind wichtig.
Vision - Entwerfen ohne Annahmen
Können wir Produkte entwerfen, ohne Annahmen zu treffen? Ich glaube, wir können es, und der Computer ist das Werkzeug dafür. Das ist keine große Überraschung. Der Weg dorthin besteht darin, die freien Parameter unserer Systeme, z. B. alle Parameter, die wir als Eingabe für Raytracing-Tools benötigen, mit Leistungsparametern zu verbinden.
Nehmen wir als allgemeines Beispiel ein System, das Laserlicht aufnimmt, es umwandelt und einen gewünschten Effekt erzeugt. Im Computer können wir diesen gesamten Prozess modellieren - bis hin zur Zuweisung eines Wertes für das Ergebnis, den der Kunde erkennen und direkt mit der kommerziellen Leistung verbinden kann
In der Lithoindustrie würde er die Mindestgröße der Merkmale, die Gleichmäßigkeit der CD oder die Registrierung erkennen. Mit einer Zahl für sphärische Aberration oder Koma kann er nichts anfangen, egal wie gut Ihre Optik ist. Das sagt ihm nicht, was er wissen muss, und den meisten Produktinhabern auch nicht.
Anwendung - Echte Leistungsmetriken sind wichtig
Wenn wir jedoch unsere Entwurfsparameter mit Hilfe von Modellen mit Leistungsparametern verknüpfen, können wir nicht nur die Wünsche unserer Kunden mit unseren Anforderungen in Einklang bringen, sondern wir erfahren auch, wie das System, das wir entwerfen, intern funktioniert. verbunden Dies kann uns nicht nur Aufschluss darüber geben, wie die Anforderungen mit unseren Designzielen für einzelne Module zusammenhängen, sondern auch darüber, wo unsere Prioritäten liegen.
Die Theorie in der Praxis
All dies klingt zwar sehr allgemein und theoretisch, doch wurde dieser "Design in the Computer"-Ansatz verwendet, um die LDI-5s Direktschreibsystem von Grund auf neu entwickelt. Zu dieser Zeit hatten wir noch nie einen Trockenfilmresist in einem ersten UV-System mit gemischter Bildgebung (inkohärent-teilweise kohärent), anamorph, gemischter Pixelgröße entwickelt. Was wir damals kannten, war ein 2D-SLM, ein sauberes Maskenschreibersystem, einen kontrastreichen Resist und einen Modulator mit 2 Giga-Pixeln pro Sekunde und einer Scangeschwindigkeit von 80 mm/s mit einer nahezu idealen Lichtquelle, dem Excimer-Laser. Jetzt mussten wir einen 1D-Modulator mit einer Scangeschwindigkeit von 2000 mm/s und vier rotierenden Teleskopen entwickeln, um eine Schreibzeit von 60 Sekunden auf 500 mm x 500 mm großen Substraten zu erreichen. Wenn wir versucht hätten, einen der Parameter, die das optische System beeinflussen, zu erraten, wäre die Gefahr groß gewesen, dass wir es mehr als einmal machen müssten.
Dieser Entwurf wurde jedoch im Computer fast vollständig ausgeschöpft. Die Schrifteigenschaften, die Dynamik der SLM-Mikrospiegel, die Anforderungen an das optische Teilsystem, die NA (unterschiedlich in X und Y) und die Pixelgröße (unterschiedlich in X und Y) wurden im Computer optimiert. Jeder Aspekt des Geräts wurde bis an seine Grenzen gebracht. Selbst der SLM, der mit einer Pixelrate von 2MHzwurde oberhalb seiner Spiegelresonanzfrequenz verwendet. In dem Link wird eine Pixelrate von 1 MHz angegeben. Interessanterweise mit "Zukunftsperspektive: bis zu 1,6 MHz". Dazu möchte ich sagen, dass 1,6 der Faktor zwischen Pixelrate und Resonanzfrequenz war. Der Modulator könnte dank der kritischen Mikrospiegeldämpfung und des Verhältnisses zwischen optischer Auflösung und Pixelgröße von etwa 0,2 oberhalb seiner Resonanzfrequenz eingesetzt werden - das ist selbst für einen Maskenschreiber ziemlich klein, aber Trockenfilmresist muss weit über die isofokale Dosis hinaus belichtet werden, so dass die optische Auflösung des Systems wesentlich höher ist als die minimale Featuregröße. Eine schwierige Entscheidung für ein System, bei dem es heißt "Gib mir Schreibkapazität", aber eine, die man treffen kann, wenn man sie durch Zahlen und Erfolgsbilanz untermauern kann.
Wir haben sogar Metrologie-Tools für die Systemintegration.
Dies ist Senslogic
Diese Erfahrung und wie gut sie funktioniert hat, findet sich in der Palette der von Senslogic heute angebotenen Dienstleistungen wieder. Die Leser werden Teile dieser Geschichte in verschiedenen Tech-Talks auf dieser Website finden, aber ich denke, dies ist der erste Beitrag, der aus der Perspektive des computergestützten Designs geschrieben wurde.
Meiner Meinung nach ist das Labor nicht der Ort, an dem man lernt - der Computer schon. Das Labor ist der Ort, an dem man seine Modelle verifiziert. Im Labor lernt man nicht, sondern prüft. Hier können Sie Vertrauen in Ihren Prozess aufbauen. Entwerfen Sie einmal. Bauen Sie mit Zuversicht - jederzeit, zu jeder Zeit.
Kommentar verfassen