
Die Forscher von Nvidia haben auf der jährlichen NeurIPS-Konferenz einen bahnbrechenden Fortschritt in der synthetischen Intelligenz präsentiert. Mit Hilfe eines neuronalen Netzwerks ist es ihnen gelungen, aus lediglich einem Bild ein vollständig texturiertes 3D-Modell zu generieren. Bisherige automatisierte Systeme benötigten entweder zahlreiche Aufnahmen aus verschiedenen Perspektiven oder die manuelle Unterstützung eines Nutzers. Durch diese neue Technologie wird das Erstellen von 3D-Modellen revolutioniert und könnte in Zukunft in vielen Anwendungsbereichen zum Einsatz kommen.
Ein Bild erstmals genug
Laut dem Nvidia-Forscher Jun Gao ist Nvidia damit etwas gelungen, das bisher nicht möglich war:
"Zum ersten Mal kann man jedes beliebige 2D-Bild nehmen und daraus relevante 3D-Daten erzeugen."
Das Nvidia-Framework zum Rendern der 3D-Modelle nennt sich »DIB-R« was für »differentiable interpolation-based Renderer« steht. Das Prinzip ist relativ einfach und jedem bekannt, denn wir Menschen sehen ebenfalls nur 2D-Bilder die unser Gehirn in 3D umsetzt.
Genau diese Leistung hat Nvidia auf künstliche Intelligenz übertragen. Damit ergeben sich neue Möglichkeiten, ebenso wie verbessertes Tracking oder 3D-Model-Erstellung für Laien. Auch für den Bereich der Robotik ist DIB-R interessant, denn der Roboter kann so schnell die Umgebung in 3D erkennen.
Berechnung in Millisekunden
Während es auf einer Nvidia V100 GPU zwei Tage dauert, ein 3D-Modell zu erstellen, schafft es DIB-R in weniger als 100 Millisekunden. Trainiert wurde DIB-R mit Fotos die zuvor in 3D-Modelle umgewandelt wurden und auch mit Fotos und 3D-Modellen aus verschiedenen Perspektiven.
Das Forscherteam von Nvidia besteht aus weiterhin als 200 Personen die jedoch nicht alle an diesem konkreten Projekt beteiligt waren. Insgesamt sieben Forscher werden im Titel des Papers über das DIB-R-Verfahren genannt.
Mehr zum Thema künstliche Intelligenz:
Künstliche Intelligenz erleben - Online-Experimente die jeder selbst ausprobieren kann KI-Fehler: An diesen Bildern scheitert künstliche Intelligenz Deep Fakes: Wenn die KI das menschliche Auge betrügt
Kommentare