Logo der Physikalisch-Technischen Bundesanstalt

Numerische Methoden

Arbeitsgruppe 8.43

Optik und Nanometrologie

Die Nanometrologie beschäftigt sich mit der Messung der Dimensionen von Objekten, Abständen und Verschiebungen im Bereich von einem Nanometer bis einem Mikrometer. Die mathematische Modellierung und numerische Simulation unterstützt die Auswertung von Messungen und die Bestimmung von Unsicherheiten.

Scatterometrie

Einleitung

Abb. 1a: Scatterometrisches Messschema am Beispiel des EUV-Scatterometers.

Bei der Charakterisierung von periodischen Oberflächenstrukturen im Mikro- und Nanometerbereich wie sie in auf Fotolithographiemasken auftreten, gewinnt die Methode der Scatterometrie an Bedeutung. Die zu untersuchende Probe wird dabei mit monochromatischem oder breitbandigem Licht unter verschiedenen Einfallswinkeln bestrahlt. Das reflektierte bzw. transmittierte Licht wird winkelaufgelöst gemessen und daraus werden dann wichtige Profilparameter wie Linienbreite und -höhe sowie Kantenwinkel bestimmt. Der Aufbau scatterometrischer Messungen, so wie sie z.Z. in den PTB-Fachbereichen 4.2 und 7.1 durchgeführt werden, ist schematisch in Abb. 1 dargestellt. Da hier keine abbildende Optik angewandt wird, können Profilparameter der Struktur und Verteilung ihrer optischen Eigenschaften nur indirekt aus dem gemessenen gestreuten Licht bestimmt werden. Die Anteile der Lichtenergie in die einzelnen Beugungsrichtungen, d.h. ihre Effizienzen, und die Phasenverschiebungen werden entscheidend vom Profil, dem Aufbau und der Verteilung der optischen Indizes geprägt. Das inverse Problem stellt sich hier als Profilrekonstruktion: Geometrieparameter von Gitterlinien sowie ihre optischen Materialkonstanten sind aus den gemessenen reflektierten und transmittierten Moden abzuleiten.

Abb. 1b: Scatterogramme - gemessene und gerechnete Lichtintensitäten für mehrere Beugungsordnungen.

Mathematisches Modell

Mathematische Basis für die Modellierung der Ausbreitung elektromagnetischer Wellen in Materie sind die Maxwell-Gleichungen. Ihre numerische Lösung, hier für den Fall der Wechselwirkung des Lichtes mit Fotolithographiemasken, repräsentiert die Lösung eines direkten Problems, das auch als ,,Vorwärtsproblem" bezeichnet wird. Dabei werden aus den Daten des einfallenden Lichtes und charakteristischen Parametern des bestrahlten Gitters die Effizienzen und Phasenverschiebungen für die verschiedenen Beugungsrichtungen berechnet. Es gibt heute eine Reihe von numerischen Methoden, die die Maxwell-Gleichungen lösen. Insbesondere die Finite Elemente Methode (FEM) hat sich bei der Lösung von Randwertproblemen bei Differentialgleichungen bewährt und wird hier für Vorwärtsrechnungen an Gitterprofilen eingesetzt. Der große Vorteil der FEM bei der Berechnung der numerischen Lösung der partiellen Differentialgleichungen für das Streuproblem ist die Möglichkeit, mit heute verfügbaren Triangulierungsprogrammen quasi beliebig strukturierte Gitter (mit vielfältig geformten Grenzflächen) behandeln zu können. Abb. 2 zeigt den Querschnitt einer typischen CoG-Lithographie-Maske (Chrom auf Glas) mit trapezförmigem und periodischem Aufbau der Gitterstege sowie den einer typischen EUV-Maske mit Tantalnitrit Absorberlinien auf einem Molybdän-Silizium Multilayerspiegel.

Abb. 2a: CoG Gitter – Chrom auf Glas-Lithographiemaske.
Abb. 2b: Typische EUV-Maske – TaN Absorberlinie auf einem MoSi-Multilayerspiegel.

Inverses Problem: Least Squares

Abb. 3a: Funktionalverlauf für einen Rekonstruktionstest für eine Cr-Maske.
Abb. 3b: Funktionalverlauf für einen Rekonstruktionstest für eine EUV-Maske.

Die Bestimmung der Profilparameter des streuenden Gitters aus scatterometrisch gemessenen Effizienzen und Phasenverschiebungen ist ein Optimierungsproblem. Mit Hilfe von FEM Rechnungen und Minimierung der Abweichungen zwischen Rechnung und Messung wird auf die Streugeometrie geschlossen. Die Eindeutigkeit der gefundenen ‚minimalen’ Lösung für die parametrisierte Identifikation des Gitters kann theoretisch aber nicht bewiesen werden. Trotzdem kann erwartet werden, dass bei ausreichend vielen gemessenen Effizienzen bzw. Phasenverschiebungen und nicht zu großzügig gewählten Grenzen für die Systemparameter genaue Identifikationsergebnisse erreicht werden. 

Beispielhaft sind in Abb. 3 die Verläufe der Residuen, hier der quadrierten Abweichungen zwischen mit verschiedenen Profilparametern errechneten und gemessenen Effizienzen dargestellt; oben für die Chrom(Cr)-Maske und darunter für die Tantalnitrit-Maske, und zwar jeweils für die Variation von zwei Profilparametern. Von den gemessenen bzw. simulierten Effizienzen wurden für die Cr-Maske die reflektierten und transmittierten Werte für die Beugungsordnungen 0 und -1 bei vier verschiedenen Einfallswinkeln als Eingabedaten für die Funktionalberechnung bei der Variation der beiden Dicken genommen. Ein ausgeprägtes Minimum ist genau an der richtigen Stelle zu erkennen. An diesem Bild wird aber auch deutlich, dass eine falsche bzw. ungünstige Wahl der Anfangslösung bzw. des Startwertes für die Dicke der Chromoxidschicht, nämlich ein Wert größer als 60 nm, zu einem falschen Rekonstruktionsresultat führt. Die oft eingesetzten gradientenbasierten Optimierungsverfahren würden dann ein lokales Minimum jenseits des hohen ‚Funktional-Rückens’ finden, der sich bei einer Schichtdicke von 0.06 µm ausbildet. Für das Beispiel der TaN-Maske ist im gerechneten Variationsbereich der TaN-Absorberliniendicke ($p_6$) die Ausprägung mehrerer Minima noch deutlicher. Mit anderen Worten: eine erfolgreiche Rekonstruktion der Streugeometrie setzt auch ein hinreichendes Vorwissen über die Profilgeometrie voraus.

  

Maximum Likelihood Methode

Der klassische Weg zur Lösung des inversen Scatterometrie-Problems besteht darin, eine Regression im Sinne der kleinsten Fehlerquadrate anzuwenden. Die Summe der gewichteten quadratischen Abweichungen zwischen berechneten und gemessenen Lichtstreudaten wird dabei durch Parametervariation minimiert.  Dieses Verfahren setzt aber die genaue Kenntnis der Varianzen der Messwerte voraus, was nicht immer gewährleistet ist. Im Falle nicht genau bekannter Varianzen können die rekonstruierten Parameter deutlich von den tatsächlichen abweichen und auch die geschätzten Unsicherheiten für die Rekonstruktionsparameter sind unter Umständen deutlich zu groß.

Die Maximum Likelihood Methode (MLE) umgeht diese Schwäche, denn sie ermöglicht es, neben den kritischen Geometrieparametern auch  die Varianzen

\[
\sigma_j^2=\left(a\cdot f_j\left(\mathbf{p}\right)\right)^2+b^2
\]

der Messwerte zu schätzen. Die scatterometrische Modellfunktion $f_j(\mathbf{p})$ zusammen mit Fehlerfunktion $\sigma_j^2$ erlaubt unter der Annahme normalverteiltem Rauschens die Likelihood Funktion $\mathcal{L}\left(a,b,\mathbf{p}\right)$ als Produkt von Exponentialfunktionen darzustellen:

\[
\mathcal{L}\left(a,b,\mathbf{p}\right)=\prod_{j=1}^{m}\left(2\pi\left(\left(a\cdot f_j\left(\mathbf{p}\right)\right)^2+b^2\right)\right)^{-1/2}\exp\left[-\frac{(f_j\left(\mathbf{p}\right)-y_j)^2}{2\left(\left(a\cdot f_j\left(\mathbf{p}\right)\right)^2+b^2\right)}\right]
\]

Die Maximierung der Likelihood Funktion liefert dann die gesuchten Parameter $(a, b)$ für die Varianz der Messwerte und den gesuchten Profilparametervektor $ \mathbf{p}$.

Nach oben

Linienrauheit

Abb. 4: 1D-Rauheitsmodell - für eine EUV-Maske mit sehr vielen geraden Linien im FEM-Rechengebiet; Position und Breite der Linien werden zufällig gewählt.
Abb. 5: 2D-Rauheitsmodell - links: Apertur (1000 nm x 1000 nm) mit vier Spalten, deren rauhe Kantenlinien mit $\sigma$=3 nm, $\xi$=10 nm und $\alpha$=0.5 erzeugt wurden; rechts: Vergrößerter Bereich aus der Apertur.

Herstellungsbedingt sind die Linienkanten der lithographischen Masken nicht absolut gerade, sondern sie sind rau. D.h., die für die Modellierung angenommene strenge Periodizität ist gestört und das wirkt sich auf die messbaren Lichtintensitäten der verschiedenen Beugungsordnungen aus.  Simulationsstudien mit stochastischen Störungen für die Kantenposition der Absorberlinien zeigen, dass sich im Mittel eine exponentielle Abschwächung in Abhängigkeit von Rauheitsamplitude $\sigma_r$ und und Beugungsordnung $n_j$ einstellt:

\[                                                                                                                                                                             \widetilde{f}_j\left(\sigma_\mathrm{r},\mathbf{p}\right)=\exp(-\sigma_\mathrm{r}^2
k_j^2)\cdot f_j\left(\mathbf{p}\right)                                                                                                                                                                                                            \]

mit $k_j = 2 \pi n_j/d$ als Funktion der Beugungsordnung $n_j$ und der Periode $d$ der Profilstruktur. Die  Modellfunktion $f_j\left(\mathbf{p}\right)$ zur Berechnung der Lichtstreuung aus den Profilparametern wird also um einen rauheitsabhängigen Faktor ergänzt. Die Rauheitsamplitude $\sigma_\mathrm{r}$ beschreibt die Varianz der Kantenposition der Linien. Schon einfache Modelle für die Kantenrauheit, sowie in Abb. 4 dargestellt, und dann mit zeitaufwendigen FEM-Rechnungen für große Rechengebiete vielfach ausgeführt, bestätigen den mit der Formel angegebenen Dämpfungsfaktor für die im statistischen Mittel zu erwartenden Lichtintensitäten bzw. Effizienzen.

Um die gefundene systematische Korrektur der Effizienzen mittels Dämpfungsfaktor auch für komplexere Rauheitsmodelle zu verifizieren, wird die Lichtstreuung an dünnen 2D-Aperturen untersucht. Sie bestehen aus mehreren Spalten, deren Kanten keine geraden Linien mehr sind, sondern durch eine Autokorrelationsfunktion 

\[                                                                                                                                                                             x(r)=\sigma^2 e^{-(r/\xi)^{2\alpha}}                                                                                                                                                                                                            \]

aufgeraut werden. $r$ ist hier der Betrag des Abstandes benachbarter Kantenpunkte in $y$ Richtung. Neben der Standardabweichung $\sigma$ für die Rauheitsamplitude kommen nun noch die lineare Korrelationslänge $\xi$ und der sogenannte Rauheitsexponent $\alpha$ ins Spiel. Auf diese Weise können ganz verschiedene Rauheitsmuster in ihrer Wirkung auf die Lichtstreuung studiert werden. Abb. 5 zeigt ein Beispiel. Berechnet wird die Lichtstreuung für diese 2D binären Gitter sehr effizient mittels Fraunhofer-Approximation. Sie erlaubt  die Berechnung der Lichtintensitäten im Fernfeld sehr elegant und schnell mittels 2D Fourier Transformation. 

 

 

Nach oben

Publikationen

Publikations Einzelansicht

Artikel

Titel: Bayesian approach to the statistical inverse problem of scatterometry: Comparison of three surrogate models
Autor(en): S. Heidenreich, H. Gross;M. Bär
Journal: International Journal for Uncertainty Quantification
Jahr: 2015
Seite(n): 511
DOI: 10.1615/Int.J.UncertaintyQuantification.2015013050
Marker: 8.43, Scatter-Inv, UQ

Zurück zur Listen Ansicht