Rendering-Technik extrahiert 3D-Information aus 2D-Bildern

Inverses Rendering für die monokulare Verfolgung mehrerer Objekte und Optimierung des inversen Renderings. © Nature Machine Intelligence

Forschende der Princeton University haben kürzlich einen neuen Ansatz für das inverse Rendering vorgestellt, der eine Extraktion von Szenenbeschreibung aus 2D-Bild- bzw. Video-Datensätzen erlaubt. Sie drehen damit den Prozess um, mit dem sonst mithilfe von generativer KI und neuronalem Rendering auf Basis von Szenenbeschreibungen neue Bilder bzw. Video künstlich erzeugt werden.

Das neue Verfahren nutzt generative KI-Modelle zur Simulation des Bilderzeugungsprozesses mit schrittweiser Anpassung der Modellparameter zur Optimierung. So kann es eine Vielzahl von Bildern zuverlässiger interpretieren, als bisher genutzte Ansätze.

Dabei wird die Bildverarbeitungsaufgaben wie beispielsweise das Objekt-Tracking als Optimierungsprobleme zur Testzeit gelöst. Im Gegensatz zu bestehenden überwachten Lernmethoden lässt sich das Verfahren auf andere Datensätze ohne erneutes Training übertragen. (jr)

Link zur Forschungsveröffentlichung