
Linjie Lyu nach der erfolgreichen Verteidigung seiner Dissertation MPI-INF/Bertram Somieski
Am 16. Januar 2026 verteidigte Linjie Lyu erfolgreich seine Dissertation mit dem Titel: "Global Illumination in Inverse Rendering: From Probabilistic Reconstruction to Generative Editing". Er begann sein Studium an der Graduate School of Computer Science der Universität des Saarlandes im Oktober 2019 und ist seit Juni 2021 Doktorand am Max-Planck-Institut für Informatik. Betreut wurde seine Dissertation von Prof. Dr. Christian Theobalt, Wissenschaftlicher Direktor des Abteilung Visual Computing and Artificial Intelligence. Der Doktorgrad wird von der Universität des Saarlandes verliehen.
Zusammenfassung der Dissertationsschrift:
Die Rekonstruktion von Geometrie, Materialien und Beleuchtung aus Bildern - bekannt als inverses Rendering - ist ein zentrales Problem der Computergrafik und Bildverarbeitung. Eine wesentliche Schwierigkeit besteht darin, globale Beleuchtungseffekte wie Schatten, Reflexionen und Farbsäume präzise zu modellieren. Diese sind zwar für ein realistisches Szenenverständnis unerlässlich, lassen sich aber aus begrenzten visuellen Beobachtungen nur schwer ableiten.
Diese Arbeit verbessert das inverse Rendering, indem sie die globale Beleuchtung explizit berücksichtigt und gleichzeitig zwei grundlegende Herausforderungen angeht: die Mehrdeutigkeit bei der Rekonstruktion von 3D-Szenen aus Bildern und den hohen Rechenaufwand für die Simulation des Lichttransports. Um die Mehrdeutigkeit zu bewältigen, führen wir probabilistische inverse Rendering-Frameworks ein, die mehrere plausible Szeneninterpretationen darstellen und so eine unsicherheitsbewusste Rekonstruktion und prinzipielle Strategien für die Bildaufnahme ermöglichen. Um die Effizienz zu verbessern, entwickeln wir differenzierbare Rendering-Techniken, die komplexen Lichttransport approximieren, darunter schnelle Berechnung weicher Schatten und neuronale Darstellungen, die eine effiziente Neubeleuchtung unter unbekannten Lichtverhältnissen ermöglichen. Obendrein untersuchen wir diffusionsbasierte generative Modelle als ergänzende Vorkenntnisse für die global beleuchtungsbewusste Bildzerlegung und -bearbeitung, die eine semantische Manipulation von Beleuchtung und Materialien ohne vollständige 3D-Rekonstruktion ermöglichen. Zusammen bilden diese Beiträge einen einheitlichen Rahmen für skalierbares und robustes inverses Rendering in komplexen Umgebungen. Durch die Kombination von physikalischer Modellierung, Unsicherheitsargumentation und generativen Vorkenntnissen ermöglicht diese Arbeit eine zuverlässigere Szenenrekonstruktion und -bearbeitung mit Anwendungen in den Bereichen 3D-Inhaltserstellung, visuelle Effekte und Augmented Reality.