Lebensechte Figuren und glaubhafte Umgebungen sind der Traum der meisten Game-Designer. Bislang ist das nur in Ansätzen und mit sehr viel Aufwand möglich, beispielsweise in Rennspielen. 3D-Objekte wie Autos und die Umgebungsgrafik können in mühseliger Arbeit so lange modelliert werden, bis das Spiel quasi fotorealistisch aussieht. Vor allem bei Licht und Schatten braucht es aber viele programmiertechnische Kniffe, um Realismus vorzutäuschen. Mit Raytracing in Echtzeit soll dies nun viel einfacher werden. Stark vereinfacht gesagt macht Raytracing 3D-Computergrafik schöner – sehr viel schöner.
Die Raytracing-Technologie wird schon länger für visuelle Effekte in Blockbuster-Filmen genutzt. Mit Echtzeit-Raytracing sollen Lichteffekte, Schatten und Spiegelungen künftig auch in Games so real erscheinen, wie es bislang nur in teuren Filmproduktionen wie «Blade Runner 2049» zu sehen ist. Das Problem: Raytracing benutzt komplexe Algorithmen und verlangt daher für Echtzeitberechnungen sehr viel Rechenkraft. Lichtreflexionen müssen beispielsweise je nach Oberfläche, auf die sie treffen, speziell berechnet werden. Erst dann wirkt ein Film oder ein Computerspiel wirklich realistisch.
Nun haben der Spiele-Entwickler Epic Games und der Grafikkarten-Hersteller Nvidia eine Echtzeit-Raytracing-Demo erschaffen, die kaum von einem Film unterscheidbar ist. Die Techdemo spielt im Star-Wars-Universum und gibt uns einen Vorgeschmack, wie Spiele irgendwann aussehen werden.
Dank schnellerer Grafikchips wird Raytracing endlich auch für Videospiele nutzbar. Chip-Hersteller wie Nvidia und AMD arbeiten dazu gemeinsam mit Spiele-Firmen wie Epic Games und Windows-Entwickler Microsoft. Microsoft hat soeben die neue Schnittstelle DirectX Raytracing (DXR) vorgestellt, die DirectX 12 erweitert. Mit ihr lassen sich quasi-fotorealistische 3D-Szenen für PC-Games erstellen. Mit Nvidias und Microsofts Hilfe will Epic Games Echtzeit-Raytracing für Nutzer der Unreal Engine bis spätestens Ende Jahr zur Verfügung stellen.
Die in den oben stehenden Videos zu sehende Tech-Demo basiert auf der bekannten Unreal Engine 4, benötigt allerdings Hardware (Nvidia DGX Station) im Wert von mehr als 60'000 Franken. Die ersten Grafikkarten mit Raytracing-Unterstützung für den Heimgebrauch werden mehrere tausend Franken kosten. Bis 3D-Spiele auf breiter Front fotorealistisch aussehen, wird es also doch noch eine Weile dauern.
Menschliche Emotionen wirklich realistisch auf Spielehelden übertragen, kann (bislang) kein Algorithmus. Hierfür braucht es aufwändige Motion-Capture-Verfahren. Das Resultat zeigt Epic Games im folgenden Video.
Siren ist eine Digitalfigur, die auf dem Abbild einer chinesischen Schauspielerin basiert. Bei Live-Motion-Capture (Bewegungs-Erfassung in Echtzeit) wird ein Mensch gefilmt. Die Körper- und Fingerbewegungen der Schauspielerin werden auf einem Bildschirm erfasst, während die Daten in die Unreal Engine gestreamt werden. Auf einem zweiten Bildschirm bewegt sich die digitale Frau Siren nach dem Vorbild der chinesischen Schauspielerin – synchron und mit 60 Bildern pro Sekunde.
Durch Echtzeit-Gesichtsanimation werden menschliche Emotionen quasi auf digitale Menschen in Games, Filmen oder der Werbung gespiegelt. Epic Games sagt, Siren sei erst der Anfang und werde nebst der Game-Branche auch verwandte Branchen wie Film, Marketing und Werbung massiv verändern.
Siren ist faszinierend und gruselig zugleich, aber das ist die Zukunft meistens.
(oli)