banner
Nachrichtenzentrum
Unsere Angebote werden sowohl im Inland als auch international geschätzt.

DigiPro23: In Bildern erzählt

Jan 12, 2024

DigiPro hielt vor einer hochtalentierten und hochrangigen Gruppe von 400 TDs, Produktionsprofis und VFX-Supervisors erneut eine außergewöhnliche Reihe von Vorträgen mit Schwerpunkt auf der Produktion. Fxguide berichtet seit der allerersten Veranstaltung bei Dreamworks im Jahr 2012 über DgiPro und seitdem sind wir auch offizieller Fotograf der Veranstaltung. Hier finden Sie eine Auswahl an Bildern der diesjährigen Veranstaltung.

Kelsey Hurley (Disney) und Valérie Bernard (Animal Logic) haben als diesjährigen Co-Vorsitzenden des Symposiums großartige Arbeit geleistet und den Tag eingeläutet und so viele Menschen nach der COVID-Krise wieder willkommen geheißen.

Die Co-Vorsitzenden des Programms, Per Christensen und Cyrus A. Wilson, haben einen brillanten Gesprächstag zusammengestellt.

Fast jeder Vortrag wurde live abgehalten und äußerst gut präsentiert – mit einer Fülle an Produktionsinformationen. Nachfolgend finden Sie einige Highlights des Tages.

Marlon lieferte einen der wahren Höhepunkte des Tages, die persönliche Sichtweise eines Animators auf die Rolle der Technologie beim Übergang in die traditionelle Animation bei Disney. Marlon kam zunächst zu Disney, um am ursprünglichen König der Löwen zu arbeiten, und er zeichnete die Einführung der Technologie von damals bis heute auf. Weit davon entfernt, ein trockener Fachvortrag zu sein, waren seine fesselnden und persönlichen Berichte darüber, wie verschiedene Filme Probleme mit immer mehr CGI angingen, vielleicht der unterhaltsamste Vortrag des Tages. Offen und mit echtem Enthusiasmus reflektierte Marlon die großen Traditionen der Disney-Animation und beleuchtete respektvoll die Fähigkeiten sowohl der Animatoren als auch der technischen Teams, die bei Disney ständig Innovationen hervorbringen.

Dieser Vortrag bot einen umfassenden Einblick in die innovative Technologie und Arbeitsabläufe, die für Avatar: The Way of Water entwickelt wurden. Der mehrfache Oscar-Gewinner Joe Letteri berichtete über Wētās Herangehensweise an Forschung und Entwicklung, die eigentliche Aufnahmeproduktion; und wie die Teams zusammenkamen, um eine grundlegend neue Pipeline für die Show zu entwickeln. In dem Vortrag ging es darum, wie Wētā KI-Systeme in die Arbeitsabläufe ihrer Künstler integriert hat, ohne die volle Kontrolle über den Künstler zu verlieren. Enthalten war ein Überblick über die Innovationen am Set, darunter neue Aufnahmesysteme und der neuronale Netzwerk-gesteuerte Tiefenkompositing-Workflow, sowie Wētās neues Gesichtssystem (APFS) und der integrierte Multi-Physics-Löser Loki.

Joe Letteri ist einer der einflussreichsten Persönlichkeiten der Branche und verfügt dennoch über eine wunderbar offene Art, mit einem Fachpublikum zu sprechen. Anstatt die unglaublichen Innovationen von Avatar 2 zu „projizieren“, ist seine Präsentation eher eine Präsentation, in der jemand sein Wissen mit seiner Community teilt, und zwar ohne jemals herablassende Worte gegenüber dem Publikum zu machen.

Zusätzlich zu einem großartigen Vortrag über Cloud Computing bei Wētā FX gab es in der Nachmittagssitzung eine weitere Wētā-Präsentation zu Avatar2: – Pahi, die einheitliche Wasserpipeline und das Toolset von Wētā FX. Diese Sitzung konzentrierte sich nur auf eine Teilmenge der Themen, die Joe in der vorherigen Sitzung behandelt hatte, jedoch viel ausführlicher. Pahi ermöglicht die prozedurale Blockierungsvisualisierung für die Vorproduktion, die Simulation verschiedener Wasserphänomene von großflächigen Spritzern mit Sprühnebel und Nebel in der Luft, Unterwasserblasen und -schaum bis hin zu kleinen Wellen, dünnen Filmen und Tropfen sowie ein Kompositionssystem, um verschiedene Elemente miteinander zu kombinieren Rendern. Anstatt eine Einheitslösung vorzuschreiben, umfasst Pahi eine Reihe hochmoderner Techniken, von Referenzlösern auf Ingenieursniveau bis hin zu hochgradig künstlerisch steuerbaren Werkzeugen.

Nicholas Illingworth, Effects Supervisor bei Wētā FX, war einer der Redner in der zweiten Avatar-Sitzung. Fxguide sprach nach der Veranstaltung mit ihm, um einen kurzen Überblick über den Workflow für Unterwasseraufnahmen zu bekommen. Die meisten ihrer Vorträge bei DigiPro konzentrierten sich auf Oberflächeninteraktionen mit Wasser, wie z. B. das Aufbrechen der Oberfläche, Spray, Wellen und dynamische Interaktion.

Unterwassersimulation

„Für das FX-Team würden wir traditionell keine Wasserlösung für das Wasservolumen durchführen, es sei denn, wir betreten oder verlassen das Wasser. Was wir tun könnten, wäre ein Produkt zu erstellen, das wir als „PhysEnv-Paket“ bezeichnen.“ Nicholas Illingworth erklärte. Dies wurde größtenteils aus den prozeduralen Ozeanwellen (FFT) abgeleitet. Dies enthält nützliche Informationen wie Windgeschwindigkeit, Richtung und die Umlaufgeschwindigkeit der gegebenen Wellen, wobei eine gewisse Tiefe abnimmt. „Das war für unser Kreaturenteam sehr praktisch, da es sich um Muskel-, Haut-, Stoff- und Haarlösungen handelt.“ Die Produktion drehte umfangreiches Filmmaterial auf den Bahamas, darunter auch Schauspieler, die unter Wasser mit hoher Geschwindigkeit angetrieben wurden. „Jim (Regisseur James Cameron) war von den Wellen in der Haut/Faszie absolut begeistert, und das war ein Feature, das er sich für die schnellen Unterwasseraufnahmen gewünscht hatte. „Die Dichte des Wassers betrug weitgehend einheitlich 1000 kg/m^3, und das Team nahm keine Änderungen an Dingen wie Salzgehalt oder Temperatur vor, nur der Einfachheit halber und um unnötige mathematische Komplexität zu vermeiden. „Für Aufnahmen, bei denen wir eine Wasserlösung an der Oberfläche usw. durchgeführt haben, wurde dieses physEnv-Paket von Motion verwendet, um die Augenlinien auf Wellen oder Spritzer zu messen, und das Kreaturenteam würde diese Lösung verwenden, um ihre Haar- und Kostümlösungen voranzutreiben. und in einigen Fällen Haut und Armaturenbrett.“ Für das gelöste PhysEnv-Paket fügt er hinzu: „Dies wäre ein SDF- und Geschwindigkeitsfeld für das Creatures-Team und eine geometrische Darstellung für die Animationsteams.“

Blasen.

Das Team hatte verschiedene Möglichkeiten, Blasen zu erzeugen. Es gab winzige Hautblasen, die an Mikrodetails im Gesicht haften blieben, aber das war nicht nötig. „gelöst“ werden, da sie weitgehend instanziiert wurden. „Wenn wir Heldenblasen, Ausatmung usw. simulieren würden, würden wir das Wasser um die Blasen herum auflösen, um einen genauen Widerstand/Druck usw. zu erhalten“, erklärte er. „Kleine diffuse Blasen, sagen wir, eines unserer walähnlichen Lebewesen oder Tulkun durchbrachen die Oberfläche und rissen eine Menge Luft mit. Wir würden ein ziemlich tiefes Wasservolumen auflösen, sodass wir die kleinen Details, Wirbel usw. erfassen könnten, die uns später antreiben könnten.“ diffuse Blasensimulationen.“ Nicholas bemerkt, dass das Team die Kreaturen nie wirklich als Wale bezeichnet hat, „sonst würde Jim wütend werden“.

Rendern

Wetas Team berechnete normalerweise ein Wasservolumen mit einem IOR von 1,33, dieser konnte von Zeit zu Zeit geändert werden, aber nicht sehr oft. Es gab Kontrollen für Dinge wie Trübung, so dass sie diese einstellen konnten, je nachdem, ob es sich um eine Aufnahme im tiefen offenen Meer oder etwas in einem flachen Riff handelte. „Das Wasservolumen selbst war homogen, und wir erzielten eine strukturelle Auflockerung entweder im Lichtdurchgang oder mit einigen Kompositionstricks wie tiefem Rauschen, um eine gewisse räumliche Variation zu erzielen.“ Die Charakterschönheitsrenderings wurden mit diesem Wasservolumen gerendert, zusammen mit den FFT/prozeduralen Meereswellen, was im Vergleich zu einigen Trocken-für-Nass-Shootings hilfreich war, die eine große Spiegelkomponente bei Haut-/Augenlichtern haben könnten, die man nicht erwarten würde unter Wasser zu sehen. „Ätzmittel waren eine große Hilfe bei der Darstellung der Bewegungs- und Bewegungsrichtung, zusammen mit Wolkengobos, die in der Beleuchtung verwendet wurden, um eine gewisse räumliche Variation in Licht- und Dunkelzonen zu ermöglichen.“ Biomasse und kleine Fische würden auch dazu beitragen, ein Gefühl für Größe und Reisen zu vermitteln.“

Water FX Reel 2023 von Alexey Stomakhin auf Vimeo.

Spektral gemultiplextes Alpha Matting (mit KI-Neufärbung)

Dmitriy Smirnov, Forschungswissenschaftler, stellte Netflix Magenta Green Screen vor, ein innovatives Tool zur Erstellung von Ground-Truth-Greenscreen-Kompositionen und Matten für mögliche Trainingsdatenanwendungen.

Weitere Informationen zu diesem einzigartigen neuen Ansatz finden Sie in unserer kommenden fxguide-Story „Synthetic Data“.

Die virtuelle LED-Volumenproduktion bringt ihre eigenen, einzigartigen Herausforderungen mit sich, die sich von typischen Anwendungen des Echtzeit-Renderings unterscheiden. ILM StageCraft ist eine Suite virtueller Produktionstools, die leistungsstarke Standardsysteme wie Unreal mit proprietären Lösungen verbindet.

Um den anspruchsvollen Anforderungen der zweiten Staffel von The Mandalorian und darüber hinaus gerecht zu werden, hat Industrial Light & Magic (ILM) in StageCraft 2.0 proprietäre Technologie entwickelt und erweitert, darunter eine neue Echtzeit-Rendering-Engine, Helios, und eine Sammlung interaktiver Tools.

Jeroen Schulte und Stephen Hill präsentierten einen sehr unterhaltsamen und informativen Überblick über Stagecraft von der Originalversion 1, mit einer modifizierten UE 4.20 im Jahr 2018, bis heute. Wir besprechen die Unterstützung von Helios und Helios 2.0 mit Vulcan GPU-beschleunigtem Raytracing, wie es das Team bei Obi-Wan Kenobi verwendet hat. Dies war die erste Show, die nur Helios2 zusammen mit den fortschrittlichen CC-Tools von Stagecraft, höherer Leistung sowie Raytracing-Schatten und -Reflexionen nutzte.

Die Under-the-Hood-Geometrie von Helios arbeitet mit dem Hero Assets LOD-System von ILM zusammen, wodurch die Schleife von der Produktion zu den Echtzeit-Assets und wieder zurück sehr eng ist.

Das Team besprach auch die Art und Weise, wie die Hintergründe im ILM-System erstklassig sind, und besprach ihre Nuke-zu-Helios-Pipeline in Zeno. Von echtem Interesse waren die Fortschritte bei Dunstaufnahmen oder den teilnehmenden Medien. – basierend auf dem System, das für das Virtual-Reality-Projekt CARNE y ARENA und in jüngerer Zeit für die 2. Staffel von The Mandalorian entwickelt wurde. Stagecraft hat hart daran gearbeitet, eine Dunstanpassung auf dem Bildschirm in Volumenschleier zu ermöglichen und sogar mit 3D-Farbkorrekturvolumina zu arbeiten.

Und …

UnterwassersimulationBlasen.RendernUnd …