
Übersicht
Unter “Deep Learning” versteht man Methoden des maschinellen Lernens, bei denen neuronale Netze verwendet werden, die über viele Schichten verfügen. Diese Methoden werden etwa für Klassifikationsaufgaben oder für die Approximation von Funktionen verwendet. Neuronale Netze sind vielfältig einsetzbar und außerordentlich leistungsfähig, Anwendungsbeispiele sind das autonome Fahren, computer-gestützte Diagnose von Krankheiten, oder die automatische Segmentierung von Bildern. Für den Einsatz von „Deep Learning” in der Metrologie ist es entscheidend, dessen Zuverlässigkeit besser verstehen und bewerten zu können. Ein wichtiger Aspekt ist dabei die Quantifizierung von Unsicherheiten. Modelle, die in der Metrologie verwendet werden, sind üblicherweise gut verstanden und basieren auf physikalischem Verständnis. Neuronale Netze hingegen erlernen eine Assoziation auf Basis von Daten. Ein weiterer Aspekt aus metrologischer Sicht ist es daher, ein Verständnis für das Verhalten der so gebildeten Assoziation zu gewinnen.

Forschung
Grundlagen:
- Quantifizierung von Unsicherheiten
- Bayesche Inversion mit daten-getriebenen Prioren
- Erklärbarkeit
- Adversarial Machine learning
Anwendungen:
- Bewertung der Bildqualität in der Mammographie
- Qualitative and quantitative MR-Bildgebung
- Inverse Probleme in der Optik
Dissertationen
- Narbota Amanova (Arbeitstitel "A novel explainabilty method with application to mammography image quality assessment")
- Lara Harren née Hoffmann (
Investigating deep ensembles for the tilted-wave interferometer)
- Tobias Kretz (
Development of model observers for quantitative assessment of mammography image quality )
Software
Publikationen
• |
J. Faller, N. Amanova, R. E. van Engen, J. Martin;C. Elster
Machine Learning: Science and Technology,
2023.
[DOI: 10.1088/2632-2153/acf914]
|
• |
M. Marschall, G. Wübbeler, F. Schmähling;C. Elster
Metrologia,
60(4),
2023.
[DOI: 10.1088/1681-7575/ace3c2]
|
• |
S. Brahma, C. Kolbitsch, J. Martin, T. Schäffter;A. Kofler
Medical Physics,
2023.
[DOI: 10.1002/mp.16543]
|
• |
M. Marschall, G. Wübbeler, F. Schmähling;C. Elster
Computational Statistics,
2023.
[DOI: 10.1007/s00180-023-01345-5]
|
• |
J. Martin;C. Elster
Neural Processing Letters,
2022.
[DOI: 10.1007/s11063-022-11066-3]
|
• |
M. Olbrich, L. Riazy, T. Kretz, T. Leonard, D. van Putten, M. Bär, K. Oberleithner;S. Schmelter
International Journal of Multiphase Flow,
2022.
|
• |
L. Harren née Hoffmann
PhD Thesis
2022.
[DOI: 10.14279/depositonce-16044]
|
• |
F. Schmähling, J. Martin;C. Elster
Applied Intelligence,
2022.
[DOI: 10.1007/s10489-022-03908-3]
|
• |
N. Amanova, J. Martin;C. Elster
Machine Learning: Science and Technology,
2022.
[DOI: 10.1088/2632-2153/ac7a03]
|
• |
T. Mehari;N. Strodthoff
Computers in Biology and Medicine,
141
105114,
2021.
|
• |
L. Hoffmann, I. Fortmeier;C. Elster
tm - Technisches Messen,
2021.
[DOI: 10.1515/teme-2021-0103]
|
• |
L. Hoffmann, I. Fortmeier;C. Elster
Machine Learning: Science and Technology,
2021.
[DOI: 10.1088/2632-2153/ac0495]
|
• |
J. Martin;C. Elster
Appl Intell,
2020.
[DOI: 10.1007/s10489-020-01925-8]
|
• |
T. Kretz
PhD Thesis
2020.
|
• |
L. Hoffmann;C. Elster
Journal of Sensors and Sensor Systems,
9
301--307,
2020.
[DOI: 10.5194/jsss-9-301-2020]
|
• |
T. Kretz, K.-R. Müller, T. Schäffter;C. Elster
IEEE Transactions on Biomedical Engineering,
2020.
[DOI: 10.1109/TBME.2020.2983539]
|
• |
J. Martin;C. Elster
Neurocomputing,
382
80--86,
2020.
[DOI: 10.1016/j.neucom.2019.11.052]
|
Preprints
• |
L. Hoffmann;C. Elster
2021.
|
• |
J. Martin
2021.
|