Nvidia hat auf der GPU Technology Conference zwei neue Techdemos für Kepler-Grafikkarten präsentiert: Wave Works und Face Works. Mit diesen Demos will Nvidia zeigen, was auf aktueller Grafik-Hardware möglich ist und gleichsam einen Ausblick darauf geben, welche visuelle Qualität man von den Spielen der kommenden Jahre erwarten kann.
Wave Works ist laut Nvidia-Chef Jen-Hsun Huang der erste Ozean-Simulator, der Wellengang in Abhängigkeit der Beaufortskala darstellt. Diese teilt Winde nach ihrer Geschwindigkeit ein. Je stärker der Wind, desto ungemütlicher wird die See, und das eingebettete Schiffchen beginnt mehr und mehr zu schaukeln. 20 000 Abtastpunkte umgeben dessen Hülle und ermitteln den Wasserdruck an den jeweiligen Stellen. Er wird vom Physiksimulator verarbeitet, der die Schiffsbewegungen errechnet. Diese haben wiederum Einfluss auf die Wellenbewegungen und beispielsweise den entstehenden Schaum.
Dass man ähnliche Technik noch nicht in aktuellen Spielen sieht liegt daran, dass Techdemos nur eine bestimmte Szene zeigen, während in Spielen zahlreiche andere Berechnungen, wie etwa zum Gameplay und der K.I., dazukommen.
Face Works sieht Nvidia als weiteren Schritt hin zur realistischen Simulation des menschlichen Gesichts – einer der laut Huang schwierigsten Aufgaben in der Computergrafik überhaupt. Jahr für Jahr versuche Nvidia sich in Techdemos diesem Ziel anzunähern, wie der Nvidia-Chef erklärte. Face Works ist in Zusammenarbeit mit dem Institute of Creative Technologies der University of Southern California entstanden und läuft auf Nvidias neuer Flaggschiff-Grafikkarte GeForce GTX Titan.
Insgesamt liegen einem Gesicht 32 GByte Daten zu Grunde, die durch effiziente Komprimier- und Rechenverfahren auf 400 MByte (etwa dreidimensionale Polygonnetze) eingestampft wurden – denn nur so ist eine Echtzeit-Visualisierung überhaupt möglich. Allein zur Berechnung eines Pixels sind 40 000 Rechenoperationen nötig; bei einer Bildrate von 60 fps komme man laut Huang insgesamt auf eine geforderte GPU-Leistung von ungefähr zwei Billionen Berechnungen pro Sekunde (2 TFlops).
Der Avatar reagiert auch auf Sprachbefehle und verformt seine Gesichtszüge in Abhängigkeit der selbst gesprochenen Worte. Nvidia zufolge ließen sich individualisierte Avatare etwa für Videokonferenzen einsetzen, da die Menge der zu übertragenden Daten wesentlich geringer ausfällt – schließlich müsse dann quasi nur die Sprache durch die Leitung, sofern die Teilnehmer alle Avatare lokal gespeichert haben.
Quelle:
mfi, heise.de, 20.03.2013
http://www.heise.de/newsticker/meldung/ ... 26822.html
GTC 2013: Zukunft der Echtzeit-Computergrafik
- [RC]BooZer
- Co-Founder
-
Addicted
- Posts: 3728
- Joined: Wed Apr 09, 2008
- Location: K-Town
- Favorite Server: All of them
- Been thanked: 1 time
-
Loading…
Stay Rough & Clever forever!
- [RC]Hunter
- Site Admin
-
Sergeant
- Posts: 2377
- Joined: Fri Apr 04, 2008
- Location: Hue City
- Favorite Server: All of them
- Has thanked: 3 times
- Been thanked: 19 times
-
Loading…
Das ist schon beeindruckend! Nicht nur die Ozean Simulation, sondern auch die Gesichtssimulationen ... am Ende wird es wohl wirklich soweit kommen ... scanne Deinen Avatar und hinterlege ihn auf einer zentralen Datenbank für weltweiten Zugriff ...
Es ist schon fantastisch zu sehen wie schnell die Technik voranschreitet, allerdings wenn es wirklich mal zur Kommunikation via Avatar(e) kommen sollte, dann möchte ich nicht wissen wie man das noch sichern möchte gegen möglichen Mißbrauch ...
Es ist schon fantastisch zu sehen wie schnell die Technik voranschreitet, allerdings wenn es wirklich mal zur Kommunikation via Avatar(e) kommen sollte, dann möchte ich nicht wissen wie man das noch sichern möchte gegen möglichen Mißbrauch ...