Man kann es euch aber auch nicht recht machen, oder? Da präsentiert Nvidia den nach eigenen Worten revolutionärsten Techniksprung seit Raytracing. Und das Netz ist voller Häme. KI-Slop-Disgrace statt Grace. Sieht denn in Zukunft alles aus wie ein mieser KI-Instagram-Filter. Und wo bleibt die kreative Freiheit und Kontrolle der Entwickler? Ist dieses negative Feedback berechtigt oder zeigt DLSS 5 doch? Wo die Zukunft des Rendering liegt. Und wer soll das überhaupt alles bezahlen? Diese Fragen beantworten wir heute drei Experten, beziehungsweise zwei, einer konnte leider nicht, von Gamestatec, die so markant ausschauen, dass sie bestimmt nicht durch einen KI-Felder gejagt wurden. Und damit Hallöchen und willkommen im Talk, Jan und Nils.
Hi, Riechelchen. Jan, du bist zugeschaltet aus Heilbronn. Wir haben gerade schon festgestellt, du wohnst zwischen zwei Kirchen. Deswegen, wenn es zwischendurch mal bimmelt, das ist nicht unsere Abo-Glocke, die ihr aber trotzdem klicken solltet. Und Nils, du bist im Ruhrpott, in Essen. So ist das, richtig. Wunderbar, da haben wir sozusagen ein inhaltliches Dreieck quer durch Deutschland, mit dem wir jetzt DLSS 5 eintriangulieren wollen. Bevor wir starten, hätte ich eine Umfrage an euch da draußen. Nämlich, ihr habt ja vielleicht die Dinge gesehen, die von DLSS 5 bisher gezeigt wurden. Da gab es Screenshots und kurze Videos aus Resident Evil Requiem, Hogwarts Legacy, Assassin's Creed Shadows, Starfield und so weiter und so fort. Wie hat euch das denn gefallen? Hat es euch super gut gefallen oder haben euch Aspekte daran gefallen und manche nicht? oder findet ihr das alles eine einzige grauenvolle Scheiße? Stimmt ab. Am Ende der Folge gibt es nochmal eine kleine Umfrage und dann werden wir schauen, ob sich eure Meinung etwas differenziert hat. Aktuell sieht das so aus, als ob teils teils oder grauenvoll vorne liegt. Jetzt geht grauenvoll in Führung. Das heißt, insgesamt war das Feedback nicht so gut. Jetzt frage ich euch, lieber Jan, lieber Nils, Wie konnte es denn zu diesem massiven Aufschrei rund um DLSS 5 kommen?
Also ich denke, der Aufschrei ist erstmal dadurch entstanden, dass es halt für die meisten Leute, und ich denke mal, das kann man wirklich so sagen, dass es für die meisten Leute so aussieht, wie KI-generierte Bilder. Und das ist generell momentan ja schon ein heißes Thema, auch wenn wir nicht über DLSS sprechen. Und das wird jetzt natürlich nochmal durch die Leidenschaft, die Spieler eben für dieses Thema haben, nochmal eingefeuert und wird deswegen sehr, sehr, sehr heiß diskutiert.
Ich glaube, es kommt auch noch erschwerend hinzu, ein wichtiger Faktor, dass NVIDIA sich viele Spiele geschnappt hat.
Die man halt zum einen schon länger, also populäre Spiele einfach, Hogwarts Legacy, ein frisches Resident Evil Requiem und diese Spiele verändert hat. Und da vielleicht auch in puncto Umfrage ein ganz interessanter Hinweis. Wir haben selber auch welche gemacht auf der Homepage, da können wir ja nachher auch nochmal drauf eingehen. Und wenn man sich die Likes und Dislikes bei YouTube anguckt zu diesen ganzen Trailern, dann schneidet auch das Video am besten ab, das zu einer Technik-Demo ist. Also das nicht von Nvidia gezeigt wurde zu einem Spiel, wie jetzt hier zu sehen Resident Evil Requiem, sondern zu einer Tech-Demo. Das heißt, da hatte man halt auch gar nicht den direkten Vergleich. Bei diesen Spielen weißt du halt, okay, so wollten die Entwickler das, sage ich mal, oder so kenne ich das. Und dann kommt halt das, was Nvidia daraus macht. Und da ist die Chance natürlich einfach größer, dass man sagt, nee, gefällt mir nicht, als bei einer Tech-Demo. Also ich glaube, da war auch die Auswahl von Nvidia einfach vom Material nicht ganz optimal, sagen wir es mal so.
Inwieweit spielt da schon eine Müdigkeit eine Rolle? Man sieht es jetzt hier bei den Gesichtern von Hogwarts Legacy ganz gut, dass das Gesicht natürlich schon deutlich besser ausgeleuchtet ist, als es die Original-Engine kann. Oder hier bei Starfield, gut, bei Starfield, ob das da so die große Kunst ist, seid ihr mal dahingestellt. Aber dass die sozusagen von der KI übermalten Gesichter, dass die extrem diesen Look haben, wie er einem über Instagram schon zu den Ohren rauskommt. Wo du halt sofort siehst, diese Person wurde per KI erzeugt oder mindestens fair in Anführungszeichen hübscht oder verfremdet.
War das ein Fehler von Nvidia, so sehr Wert auf Gesichter zu legen in den ersten Präsentationen?
Ich denke, ja. Ich denke, das kann man sehr eindeutig mit Ja beantworten. Ich denke, da steckt einfach noch, beziehungsweise müssen da einfach noch mehr Arbeit reinstecken, dass das ein bisschen besser aussieht. Denn momentan haben wir einfach diesen sehr typischen, ja, ich gebe halt bei JetGPT oder Gemini einen Prompt ein und da kommt irgendein Bild raus, Look. Und man hat auch schon andere Dinge gesehen. Wir haben ja auch Umgebungsdetails gesehen, wie sich das Ganze so auswirkt. Auch da gibt es Kontroversen. aber ich denke, da ist der Konsens eher Richtung, das sieht eigentlich ziemlich gut aus, nur Gesichter und vor allem Charaktere ändern sich einfach zu sehr und sehen teilweise eben auch aus wie andere Menschen, die eben ganz andere Charaktere darstellen und teilweise sind die Leute einfach unzufrieden, weil das auch das Bild, das sie verinnerlicht haben von der Persönlichkeit des Charakters, dadurch ein bisschen angebrochen wird.
Was genau ist denn DLSS 5? Okay, Nils erst bitte.
Ja, ich kann auch darauf antworten. Ich kann eigentlich nur mit anderen Worten bestätigen, was Jan sagte. Ja, DLSS 5. Also zum einen kann man sich fragen, warum heißt es überhaupt DLSS? Weil ehrlich gesagt hat es mit dem, was DLSS eigentlich mal war, nicht mehr so richtig viel zu tun. Die Abkürzung steht ja für Deep Learning Supersampling.
Und Supersampling heißt, den Begriff kann man natürlich weit dehnen. Aber an und für sich war damit mal gemeint, dass man Spiele halt die Auflösung quasi hochskaliert. Das, was DLSS ja als erstes gemacht hat. Also du nimmst eine Auflösung, ein Spiel in einer bestimmten Auflösung, skalierst die hoch, damit es einfach schärfer und besser aussieht mit möglichst gleichbleibender Qualität. Also im Vergleich zu dem, wie wenn du es nativ in dieser Auflösung spielen würdest. Also da übernimmt dann quasi die KI das Hochskalieren und du stellst die Auflösung halt nicht einfach selber hoch. Dann kam Frame Generation hinzu, was eigentlich auch schon was anderes ist. Eine Frame Generation heißt ja, dass die KI komplette Zwischenbilder berechnet, also auf Basis dessen, was in dem Spiel passiert, werden Zwischenbilder berechnet, vorausberechnet sozusagen, damit das Bild flüssiger aussieht. Es fühlt sich oft nicht wirklich flüssiger an, weil dadurch eine gewisse Latenz hinzukommt, aber das ist dann die Frame Generation. Und jetzt haben wir halt, ja, es hat noch keinen Namen, außer DLSS 5, aber das ist jetzt nochmal was anderes. Jetzt haben wir kein Upscaling und keine Zwischenbilder, sondern quasi ein neues Bild oder das Bild, was da ist, wird verändert von der KI. Natürlich wird das auch beim Upscaling einer gewissen Art verändert, weil ja mehr Pixel hinzukommen, aber da ist es quasi die simplere Aufgabe, sage ich mal.
Ich erzeuge mehr Pixel, einfach damit die Bildschärfe höher ist und bei der Frame Generation nimmst du ja, nimm die KI als Vorlage das, was eh schon normal gerendert wurde. Und soll das jetzt nur insofern verändern, dass es zwischen den nächsten Frames passt, wenn ich mich halt im Spiel bewege und links und rechts gucke. Und das ist jetzt halt was komplett anderes. Es ist im Prinzip generative KI, wie wir sie eben von ChatGPT.
Wie heißen die ganzen Tools? Wie heißt es nochmal? Das Builder-Tool. Wir haben Gemini. Ja, ich komme gerade auf den Namen. MidJourney, genau. Unter anderem. Es gibt ja so viele. Aber ja, genau. Also das macht jetzt DLSS 5. Und das ist schon eine Hausnummer. Gerade weil wir ja auch von Spielen reden. Und das heißt in Echtzeit. Diese Veränderung. Das heißt also DLSS 5, zum einen wird es wahrscheinlich einen Grund geben, warum NVIDIA es nicht anders genannt hat, vielleicht um auch an die eigentlichen Erfolgszeiten von DLSS anzuknüpfen, aber es passiert was anderes wie bisher, es passiert kein Upscaling, also es wird nicht ein schlechteres Bild verschönert in Auflösung und Qualität, sondern es werden Informationen aus einem Bild, das die Engine berechnet, genommen und dann ist wie so eine Ebene, die von der KI erzeugt wird, noch drüber. Welche Informationen nimmt DLSS5 denn und wie variabel kann sie diese Informationen dann verändern? Die Ebene. Auf welcher Basis arbeitet DLSS 5? Nimmt es nur die Polygone oder schaut es sich das an, was schon per Raytracing oder Pathtracing berechnet wurde, an Beleuchtung und verbessert das dann nochmal in Abgleich mit vorhandenen Bildern? Wie kann man sich das vorstellen?
Es nimmt da, also die Materialien und die Beleuchtung werden verändert auf Basis von begrenzten Inhalten, also Farb- und Bewegungssektoren. Die sind quasi die Grundlage. Das ist jetzt technisch ein bisschen schwer zu sagen. Ich finde auch, weil von dem, was man in den Videos gesehen hat, hatte ich auch das Gefühl, dass da mehr passiert als das, was so offiziell als Basis kommuniziert wurde.
Weil eigentlich hieß es dann auch, dass die Charaktermodelle an sich, also wie die aufgebaut sind, dass das auch nicht verändert werden soll. Aber ich hatte schon bei mehreren Charakteren, hat man schon den Eindruck, dass da jetzt nicht nur die Beleuchtung und die Materialien, also quasi wie die Haut sich dargestellt wird. Das kann schon sehr beeindruckend aussehen, wenn man Hyporen erkennt, wenn da das Licht wirklich so in die Haut einfällt, sage ich mal, so ein bisschen auch wieder reflektiert wird aus der Haut raus und so. Also da wird es technisch sehr genau und interessant. Aber ich hatte eben nicht das Gefühl, dass es jetzt nur Beleuchtung und Oberflächen sozusagen sind, sondern ich hatte schon das Gefühl, dass sich die Formen auch teilweise verändert haben, was jetzt eigentlich zu der offiziellen Beschreibung nicht so ganz passen würde. Aber man muss natürlich auch dazu sagen, wir sind ja immer noch, es ist ja quasi so eine Art Beta, würde ich jetzt vielleicht mal sagen, die wir da jetzt gesehen haben. Soll zwar im Herbst schon kommen dieses Jahr, was ich früh finde, muss ich sagen, für das, was diese Technik macht, ist das sehr früh, für mein Gefühl. Aber das muss man natürlich auch immer mit einkalkulieren. Also es kann natürlich sein, dass sich da auch noch bis dahin einiges daran ändert, wie das arbeitet, zumal es ja auch noch ohnehin je nach Spiel unterschiedlich sein wird. Die Entwickler haben ja Kontrolle darüber, was DLSS 5 macht und können das selbst beeinflussen. Eine Frage im Chat kommt gerade. Gerade wird DLSS 5 nur bei älteren Spielen benutzt, die eine schlechte Grundgrafik haben.
Das denke ich eher nicht. Das stellt sich Nvidia jetzt schon eindeutig als neues großes Ding vor. Das haben sie ja auch ganz eindeutig gesagt. Hier große Revolution. Also das kam ja jetzt nicht nur von irgendwelchen Webseiten oder YouTubern. Das haben sie wirklich selbst so gesagt. Seit dem Echtzeit Raytracing soll das das nächste wirklich ganz große Ding sein. Und dementsprechend bin ich mir sicher, die wollen das wirklich in so vielen Spielen wie möglich sehen und das verbreiten. Also das wird sicherlich nicht nur in älteren Spielen eingesetzt, um die zu verbessern. Und selbst da halte ich es für fragwürdig. Wahrscheinlich sieht es bei älteren Spielen noch schlechter aus, weil man wahrscheinlich weniger von diesen detaillierten Informationen, so Materialinformationen, Lichtverhältnisse und so weiter und so fort, so diese Tiefenwirkung mit dem Subsurface Scattering und so, das gibt es halt nur bei neueren Spielen. Bei älteren ist das gar nicht der Fall. Und ich denke, da werden ganz, ganz, ganz komische Kreationen, glaube ich, bei rauskommen, wenn man das auf ältere Spiele anwendet. Also ja, ich glaube eher, dass das eine neuere Sache sein soll. Und wir haben es gerade eben auch, glaube ich, schon im Chat gesehen. Das ist halt auch eine Hardware-Frage nochmal, die das auch wieder eher auf aktuelle Spiele beziehen wird. Definitiv. Welche Hardware brauche ich denn dafür? Wahrscheinlich. Tja, bisher 2,5090 Grafikkarten, also dürft man kurz 4.000 Euro hinlegen. Ja, easy, ne? Komplett super.
Bei Daniel Feith, da schenkt euch noch ein paar, der hat das dann über.
Momentan wirklich ist die offizielle Angabe von Nvidia, sie haben 2,5090 Grafikkarten benutzt dafür. Eine hat das Spiel gerendert und die andere hat wirklich nur DLS S5 berechnet und das ist natürlich eine Hausnummer. Aber sie haben auch schon, gesagt, wir wollen das optimieren auf eine Grafikkarte, bis es dann rauskommt, aber auch da muss man sich dann fragen, das wird jetzt nicht eine 40-60 sein, für die das optimiert ist. Also ich befürchte fast, dass man da wirklich eine 50-90 im Rechner haben muss, also selbst mit anderen 50er-Karten wird es, denke ich, eng, das ist jetzt spekulativ, vielleicht noch eine 50-80 oder so, ich weiß nicht, inwiefern sie das noch.
Optimieren können, aber man wird auf jeden Fall ein bisschen Geld hinlatzen müssen, um dieses Feature überhaupt sehen zu können, denke ich schon. Ein bisschen. Erfault hier der Herzen im Chat sagt gerade, wegen zwei Grafikkarten. Ich denke, das wird ein Feature für GeForce Now werden, wo man die zweite GPU dann eben mitmietet. Was ist eure Einschätzung dazu? Ist das plausibel, dass Nvidia damit auch seinen Streaming-Service ein bisschen, befördern will für die Leute, die sich keine 5090 oder 6090 oder was es dann noch immer geben wird, leisten wollen? Ist sicher ein naheliegender Gedanke. Ich meine, Cloud Gaming tut sich grundsätzlich weiterhin schwer, was die Verbreitung und Akzeptanz angeht, so zumindest mein Eindruck. Aber es ist sicherlich was, was sehr mit Interesse von NVIDIA liegt, das mehr an den Mann zu bringen. Und da gibt es viele Gründe, die da aus einer Herstellersicht dafür sprechen.
Interessantes Thema auch generell, was die Frage des Mietens von Hardware auch angeht. Wir haben es ja im Medienbereich, beschweren sich ja Leute auch immer mehr oder man hat mehr das Gefühl, ich besitze sehr viel gar nicht. Egal, ob das jetzt meine Spiegel sind bei Steam oder Videos, die ich halt im Stream immer nur schaue, die ich aber nicht mehr wie früher auf DVD in meiner Sammlung habe, die ich einfach mal auspacken kann, wenn ich will. Und das könnte uns durchaus auch bei Hardware mehr und mehr blühen, sage ich mal. Gibt es auch ein interessantes Video von Gamers Nexus dazu, falls es kann ich mal empfehlen, zu der Thematik. Ja, aber das ist natürlich naheliegend. Klar, je mehr Rechenleistung etwas braucht, desto eher bin ich vielleicht geneigt, mir diese superteure Hardware nicht zu kaufen, sondern den sparsameren Abo-Streaming-Weg zu gehen. Wie sparsam der ist, kommt natürlich immer darauf an, wie viel spiele ich jetzt und wie teuer ist das und alles. Aber das ist schon naheliegend. Also ich glaube schon, dass sie schauen werden, Ich meine, es ist auch die Frage, wie gut es skaliert halt auch mit niedrigeren Auflösungen. Also ob die KI dann auch in Full-HD, sage ich mal, auf DLSS5, dann in Kombination mit dem Upscaling und Frame Generation, ob das dann auch vielleicht mit langsameren Karten gut funktioniert, wie hoch der V-Ram-Hunger halt auch sein wird, ist dann auch wieder eine Frage. Da hat Nvidia gerade bei den langsamen Karten eher ein bisschen gegeizt, würde ich mal sagen, zumindest im Vergeiz zur AMD.
Wobei, ja, kommt aus dem Modell an. Aber ja, das sind dann alles Fragen, die kann man jetzt einfach noch nicht sicher beantworten. Und auch wie es mit der Latenz dann wird, da hast du ja wieder einen KI-Faktor, der vielleicht auch die Flüssigkeit dann gefühlt wieder sinkt. Also ja, schwierig.
Ja, ich finde die Frage mit dem Cloud Gaming echt super interessant, weil einerseits ist es natürlich so, ja, das kann bestimmt passieren, auf der anderen Seite muss die Hardware ja trotzdem irgendwo liegen und wenn NVIDIA jetzt sagt, also wenn das, sagen wir mal, jetzt wirklich nicht mehr gut optimiert werden würde, man braucht wirklich zwei 5090er dafür, dann braucht ja auch NVIDIA zwei 5090er pro Cloud-Sitzung, sage ich mal, im Vergleich und das kann dann, glaube ich, schon wieder eng werden. Also sollte das wirklich so nötig bleiben, wovon ich jetzt mal nicht ausgehe, dann wird das auch für Nvidia, glaube ich, nicht so lohnenswert werden. Also deswegen müssen wir das schon auf eine Grafikkarte runterbringen.
Das war ja auch das Ziel. Nvidia hat ja gesagt, jetzt läuft es aktuell auf zwei 5090ern und im Herbst, wenn es denn irgendwie erscheinen soll, ist schon das Ziel, das auf eine GPU zu bringen. Ab der 5. Generation, also ob jetzt eine 5070 in einem Laptop da noch mithalten kann, muss man sehen. Aber es hängt ja auch ein bisschen davon ab, was die Devs, und das sei vielleicht dazu gesagt, das, was wir jetzt gesehen haben von DLSS 5, heißt nicht, dass jedes Spiel so aussehen wird. Und gerade die Gesichter, die haben jetzt für eine hohe Kontroverse gesorgt, aber es ist eben nicht nur das, sondern es geht auch um Beleuchtung von Umgebungen, Wälder, Mauern, Städte, Objekte. Und da macht es tatsächlich einen enormen Unterschied. Die Gesichter sind das, was eben stark auffällt mit diesem KI-Look. Der Rest, wenn man nur den gezeigt hätte, dann wäre es wahrscheinlich eher positiv aufgefallen. Wie bewertet ihr denn das, was man davon bis jetzt sehen konnte? Also wie differenziert habt ihr die verschiedenen Elemente wahrgenommen? Also ich, ja, ich lege jetzt mal los.
Ich persönlich, ich fand sehr spannend die Frage auch, weil ich muss jetzt gestehen, ich habe es am Montagabend, als es angekündigt wurde, habe ich es nicht direkt live gesehen. Das heißt, ich habe es quasi erst, als das Kind in den Brunnen gefallen war, am Dienstag mitbekommen. Und da war ich natürlich schon automatisch ein bisschen voreingenommen, weil das Internet sowas von voll war mit den negativen Reaktionen. Ich finde es sehr interessant, ob ich selber das, wenn ich es komplett unvoreingenommen hätte sehen können, wie ich es beurteilt hätte, weiß ich jetzt natürlich nicht mehr. Aber ich glaube, ich hätte es positiver beurteilt als das, wie die Community jetzt in großen Teilen darauf reagiert oder zumindest in denen, die man sehr laut hört, sagen wir es mal so.
Und ich finde schon, dass das sehr beeindruckend ist. Also ich habe ja vorhin schon gesagt, ich finde, das ist ein früherer Zeitpunkt, weil wir reden hier ja von Computerspielen. Das heißt, die müssen mit, damit es sich gut anfühlt, 60 Bilder pro Sekunde ungefähr. Ich werfe jetzt mal eine Zahl in den Raum. Ich weiß, können wir jetzt darüber diskutieren. Aber sowas in der Richtung. Und wenn das wirklich jetzt schon die KI in Echtzeit berechnet hinbekommt und das auch noch konsistent in einem Computerspiel, finde ich persönlich das technisch schon sehr beeindruckend. Und vor allem, das hast du ja gerade auch gesagt, Daniel, das sind jetzt nur erste Beispiele. Das darf man ja nicht vergessen. Das ist immer noch ein früher Status von der Technik. Man wird das sehr stark beeinflussen können. Jeder, der schon mal KI genutzt hat, weiß ja, wie extrem wichtig quasi der Prompt ist und das, was ich der KI sage. Wenn ich da natürlich reinschreibe, macht das ja alles hyperrealistisch, glänzend, bla bla und die ganzen Schlagwörter, die damit erschlage, dann wird das auch mehr danach aussehen nach KI. Und wenn man damit weiß, umzugehen, dann kann man durchaus auch ja jetzt schon selber Ergebnisse erzielen, die durchaus weniger diesen AI-Slop-Look haben, sage ich mal. Das darf man dabei nicht vergessen. Also ich persönlich glaube schon, also ich kann verstehen, dass NVIDIA das als Chat-GPT-Moment für die Spiegelgrafik bezeichnet hat und als größte Entwicklung seit Raytracing.
Weil da einfach extrem viel Potenzial drin steckt. Das ist schon heftig, wenn man in Echtzeit Bilder, die ich selber steuern kann, wo gucke ich hin, was mache ich, wenn da KI verbessern kann, und das kann KI, bei aller Skepsis, die man gegenüber KI völlig berechtigt haben kann, die kann absolut Schindluder treiben, aber sie kann auch nützlich sein. Und das gilt für mich auch in dem Fall. Und insgesamt bin ich eher positiv bestimmt, was diese Technik angeht. Jan, wie ist es bei dir? Und was ich gesehen habe.
Also mir ging es relativ ähnlich. Ich dachte erst mal, als ich es zuerst gesehen habe, gerade hier Grace aus Requiem, da war ich erst mal positiv überrascht und dachte mir, Mensch, was haben denn die Leute? Ich habe es nämlich auch nicht zur Ankündigung gesehen. Dann am nächsten Tag und je weiter der Trailer voranschritt, desto mehr habe ich erkannt, okay, jetzt sehe ich es auch. Das ist schon ein Problem. Also gerade die Charaktere aus Hogwarts Legacy, die finde ich so furchtbar. Ja, also es sieht echt super schlecht aus teilweise. Diese ältere Dame, wir sehen es jetzt gleich nochmal, die da ein bisschen rumzaubert, also die tiefen Furchten und so, das sieht so furchtbar einfach nach einem, mittlerweile muss man auch sagen, schlecht KI generierten Bild aus. Es gibt mittlerweile ja KIs, die können das besser als das, was wir hier sehen. Ich schreibe es kurz für einen Podcast, Entschuldigung, wenn ich euch unterbreche. Die finde ich aber super. Also da ist bei Hogwarts eine Szene zu sehen von so einer jungen Zauberin, die in der Straße in Hogsmeade steht und da ist das.
Gesicht eben nicht so alles cranked up auf 12, drüber gebügelt und alles glänzt zu viel, sondern die sieht einfach aus, wie ein Videospielcharakter aussehen würde, wenn er besser gerendert wäre. Und das hat mir persönlich schon echt Hoffnung gegeben, dieses okay, das ist offenbar eben nicht dieses so, du schaltest das ein und es sieht halt aus wie KI-Slobs, sondern wenn die Entwickler entsprechend dran tweaken können, dann kann man das sehr subtil einsetzen und gerade was so Lichteinfall, die Haare, wie das Gesicht aussieht. Die Zuhörer hören es jetzt nicht, sehen es jetzt nicht, aber die Zuschauer. Erstens, wie plastisch ist der Ort, wenn man umschaltet auf DLSS 5? Kriegt viel mehr Tiefe, das Licht fällt viel schöner auf die Mauern und auf die Straße und auch die Person im Vordergrund wirkt einfach wie aus einem Guss und auch wie aus einem Guss in die Spielwelt platziert. Und das ist schon enorm. Und wenn das eben was ist, was nicht jedes Entwicklerstudio für sich selber ausdenken muss und alle, nicht jeder beherrscht Path-Tracing aus dem FF, zumal es ja auch sehr hardwarehungrig ist, das alles eben nicht mehr von der CPU berechnen zu lassen, oder GPU, Entschuldigung, in der Qualität, sondern sozusagen ein Werkzeug zu haben, eine gewisse Licht- und Strukturqualität von Oberflächen zuzuschalten, so wie man das möchte, das ist halt schon ein enormer Schritt.
Definitiv. Ich meine, da schwingt halt auch wieder ein gewisses Risiko mit. Das war auch ein interessantes Meme, das ich bei Reddit wo sonst gesehen habe. Da ging es darum, wie sehen Spiele in vier Jahren aus, wenn dir das S50 durchgesetzt hat. Das war ein Screenshot. Ich glaube, es war nicht der Three Damages, ist aber egal, das Bild war halt quasi, die Basis war komplett hässlich. Also da war quasi die Grundsorge, dass wir es ja schon bei DLSS hatten, beim Upscaling, Entwickler ruhen sich auf DLSS aus, ich muss nicht mehr optimieren, weil ich mache einfach Upscaling und dann läuft das schon. Und da ist jetzt eine Sorge, die auch hier aufkommt, dass die Entwickler quasi sich darauf ausruhen könnten, ich muss mein Spiel gar nicht mehr so hübsch machen.
Weil am Ende jage ich DLSS drüber und dann wird das schon. Das ist jetzt so eine Sorge, die im Netz mitschwingt. Ich will damit jetzt nicht sagen, dass es sehr wahrscheinlich ist oder dass es in großem Ausmaß passieren wird, aber es ist natürlich was, was immer dabei mitschwingt. Du hast immer diese zwei Seiten. Einerseits sehr schön, dass man vielleicht Spiele optimieren kann ohne großen Ressourceneinsatz oder mit sehr effizientem Ressourceneinsatz. Andererseits ist dann halt immer wieder die Frage, wie sehr muss ich in die Tiefe gehen? Wie viel Zeit stecke ich? Da ist echte menschliche Kreativität. Das ist ja auch das, was viele an dem KI-Geschichten stört, was ich absolut nachvollziehen kann, man merkt, KI halt oft, irgendwie fehlt da die Seele einfach. Es ist natürlich immer schwer, wenn man halt weiß, dass es KI ist. Dann ist man sicherlich, geht mir auch sogar immer so ein bisschen voreingenommen, auch bei den Bildern. Also ich glaube, dass bei relativ vielen dieser Gesichter, Wenn wir die mal vor fünf Jahren, sieben Jahren genommen hätten und einfach Leuten gezeigt hätten, so, Bild 1, Bild 2, welches sieht besser aus? Ich glaube, dass in 95% der Fälle die Leute gesagt hätten, dass DLSS 5 Bilden sieht besser aus. Weil da halt oft einfach die Beleuchtung besser ist, der Detailgrad höher. Aber es ist halt trotzdem, ich kann es verstehen, oft irgendwie wirkt es halt so glatt gebügelt. Ich kann es nicht schwer beschreiben.
Und das sieht man dann halt schon. Aber ist halt die Frage, sehe ich das auch noch, wenn ich das Spiel spiele? Jetzt waren wir ja auch sehr konzentriert auf An-Aus-Standbilder, vielleicht mal so ein bisschen Bewegung. Wie ist der Effekt, wenn ich wirklich vor dem Spiel sitze und es einfach spiele und mich jetzt nicht so sehr darauf konzentriere, wie die Gesichter aussehen? Das ist dann auch eine spannende Frage. Wie das dann sein wird, können wir jetzt noch nicht sagen, weil wir es noch nicht gesehen haben.
Aber ja, extrem interessantes Thema, definitiv. Also was ich mir auch sehr gut vorstellen kann in dem Rahmen, ist, dass es vielleicht ein bisschen individualisierbarer wird, was die einzelne Spielsession angeht. Momentan reden wir noch von Engine-nahem DLSS, das dann halt wirklich so eingefügt wird. Aber wir haben ja zum Beispiel Funktionen von DLSS, wie jetzt die Multi-Frame-Gen, wo wir auch aktiv als Nutzer eingreifen können. Vielleicht wird das bei DLSS 5 ja auch früher oder später eine Sache sein, wo wir einfach einen Regler haben, wo wir sagen können, okay, AI Smoothness, jetzt mal blöd dahergesagt, auf 10% statt auf 100% und dann sieht es schon nur ein bisschen korrigiert aus und man hat nicht diesen typischen AI-Look. Also da könnten sie ja auch noch ein bisschen dran rumschrauben. Aber generell, um den Gedanken nochmal abzuschließen, meine Meinung zu dem Thema, ich warte auf optimale Optimierung auf jeden Fall. Auf optimale Optimierung, ja, ihr wisst, was ich meine, ich warte auf Optimierung. Momentan mache ich mir Sorgen um ein bisschen so Atmosphäre und so um die konkrete Veränderung der Spielcharaktere wie man sie bisher gesehen hat, dass die einfach anders aussehen, aber ich glaube was oftmals viel nicht bedacht wird was jetzt auch Nils schon erwähnt hatte Entwickler können das ja noch, einstellen und die sind jetzt die fangen jetzt erst gerade damit an, also ich würde mal die Kirche im Dorf lassen, ich glaube so das kann schon cool werden aber wir müssen halt abwarten Ja Ja.
Inwieweit seht ihr da so einen Uncanny Valley-Effekt auf uns zukommen? Nehmen wir mal Beispiel Starfield oder allgemein Bethesda-Rollenspiele, die jetzt ja nicht gerade das erste oder die ersten Spiele sind, die einem einführen, wenn es darum geht, dass sich Personen besonders lebensnah verhalten. Es ist ja alles etwas hölzern oft. Wenn jetzt beim Spiel wie Starfield die eher hölzernen Figuren so ein DLSS-5-Layer haben, klar, der ist jetzt hier meinetwegen ein bisschen viel und glänzt ein bisschen viel, aber angenommen, das würde subtiler eingeschraubt, fällt einem dann nicht umso mehr auf, wie rigide das Framework dahinter ist? Vermisst man da nicht umso mehr realistischeres Verhalten von NPCs, Bewegungen, Reaktivität der Spielwelt? Kann das auch, selbst wenn es super aussieht, schaden im Gesamtlook?
Also ich denke ja, gerade dieser Uncanny Valley-Effekt, ich finde, das war gerade das perfekte Beispiel zu Starfield schon. Ich finde, da hat man es perfekt gesehen, gerade als die zwei Charaktere nebeneinander stehen. Hier links der Mann, rechts die Frau. Das sieht für mich sehr Uncanny Valley aus. Da wird es dann creepy, weil die halt, Uncanny Valley, wissen wir ja, es sieht quasi zu realistisch aus, aber wir wissen, dass es nicht realistisch ist. und dann entsteht dieser kleine Grusel-Effekt und ich finde, das ist hier wieder stärker. Das haben wir in den letzten einigen Jahren über das Gaming eigentlich mehr oder weniger verloren. Kommt natürlich aufs Spiel an, aber es ist deutlich weniger schlimm geworden, als es früher noch war. Aber dadurch, dass es jetzt so realistisch aussieht, auch der Rest im Shot einfach von der Umgebung her so realistisch aussieht, aber dann haben wir diese kalten Augen, die keinerlei Ausdruck haben. Also das wird auf jeden Fall ein Thema sein, um das sich die Spiele schmieden, um das sich kümmern müssen, gerade bei Befest. Also das wird ein Thema werden, denke ich.
Ja, man darf ja bei all dem nicht vergessen, das ist so wie Frame Generation und Upscaling sicherlich was, also da gehe ich jetzt schwer von aus, was ich an und aus machen kann. Also ich glaube nicht, dass uns das aufgezwungen wird und insofern finde ich persönlich, ja mein Gott, wenn ich die Option habe, wenn die Entwickler es gut machen und es mir gefällt, dann mache ich es an und wenn es mir nicht gefällt, dann mache ich es eben aus. Also da verliert man ja jetzt nichts. Und was auch noch hinzukommt, du hast es ja gerade schon angesprochen, Jan, ich finde diese Möglichkeit extrem spannend, der Individualisierung. Wir haben es gerade auf dem Chat ja schon gelesen, hat ja jemand geschrieben, zum Beispiel Half-Life 1 mal mit moderner Grafik. Ich habe mir auch schon so gedacht, was wäre, wenn ich einfach quasi sagen könnte, so, ich möchte jetzt mal dieses AAA-Spiel im Pixel-Art-Look sehen. Ob die KI das dann kann, keine Ahnung. Aber mein Gott, wenn ich es einfach anmachen könnte, oder jetzt Hell-Shading-Look oder was auch immer, und einfach mal so ein bisschen rumprobieren und das dann klappt, das finde ich eine sehr, sehr spannende Möglichkeit. Und du kannst es ja auch viel subtiler machen. Du kannst ja auch sagen.
Denn Witcher 3 ist mir zu bunt von der Farbgebung, mach das mal entsättigter. Klar, da gibt es jetzt auch simplere Fälle, wie so Reshade, kennen bestimmt auch viele hier im Chat, so ein Tool, was sich den Frame einfach nimmt, wo man sowas wie Farbgebung und so eh auch anpassen kann. Übrigens sehr empfehlenswert. Aber warum das nicht eine Stufe höher geschaltet mit KI? Ich meine, klar, ein Warum nicht könnte halt sein, wir verbrauchen noch mehr Rechenleistung für KI-Kram, der letztlich Spielerei ist. Aber mein Gott, klar, wir sind die Gaming-Seite, wir reden hier jetzt über Spiele. Und ich verstehe, wenn man darüber natürlich auch kritisch denkt. Aber jetzt erst mal rein aus der technischen Sicht und auch grafisch finde ich das sehr interessant. Und man kann halt nicht so viel verlieren, finde ich, dadurch, dass man es an- und ausmachen kann, wovon ich jetzt mal ausgehe. Jetzt ist es für Herbst 2026 angekündigt, das ist nicht mehr so weit hin. Wir vergessen auch immer ein bisschen, auch GTA soll in nicht mal mehr einem, ja, grob einem halben Jahr kommen. Dazu DLSS 5, eine neue Generation kommt auf uns zu. Ist das realistisch, dass DLSS 5 im Herbst ausgerollt wird oder eher nicht? Oder eher nur so als Demo wie jetzt, sagen wir mal, RTX Remix? Dass es grundsätzlich geht, aber dass es noch ganz schön lang dauern wird, bis namhafte Spiele das einsetzen werden?
Also ich glaube, Nvidia wäre nicht hingegangen und hätte gesagt, Herbst, wenn nicht herbstrealistisch wäre. Also eigentlich ist Nvidia jetzt schon, ich meine klar, es gibt Ausnahmen, ich glaube, das neueste Reflex lässt auf sich warten, aber bei so einer Technologie, die sie jetzt so groß ankündigen, gehe ich davon aus, dass es im Herbst auch wirklich kommen wird. Aber wie du schon sagst, in welcher Form dann halt, in wie vielen Spielen, wir erinnern uns ja zurück, Raytracing 2018, Gott, schon wieder acht Jahre her. Das kam ja auch, also es kam, als Nvidia es angekündigt hat, die erste RTX-Generation, aber dann auch erstmal nur so halb, also es war, glaube ich, erstmal nur in Battlefield oder da, glaube ich, sogar auch erst nach Release in einem Patch und dann trudelten so ganz langsam ein, zwei, drei weitere Spiele ein. Also da würde ich jetzt von ausgehen, dass das quasi ein langsamer Release wird, möglich auch, dass sie die Kompatibilität bei den Grafikkarten, wie du schon sagst, RTX 5000 wird sowieso Voraussetzung sein, aber vielleicht schränkt es auch noch weiter ein, je nachdem, wie viel Leistungshunger es dann auch hat. Also das wird eher so ein langsamer Release, denke ich jetzt. Und nicht sofort der, hier habt ihr es in 300 Spielen, legt mal los Release. In welchen Spielen werden wir es denn sehen? Also wir haben jetzt eine Szene gesehen aus Resident Evil Requiem, Hogwarts Legacy, Assassin's Creed Shadows und Starfield. Habe ich was vergessen? Oblivion Remastered. Mhm.
Ja, jetzt da erwischen mich ein bisschen, es gibt irgendwo eine Liste, jetzt habe ich sie nicht parat.
Warte mal, was haben wir hier? Ah ja, ich habe es, ich werde jetzt spielen wie Aeon 2, Assassin's Creed Shadows, Black State, Sinner City, Delta Force, Hogwarts Legacy, Justice, Naraka Blade Point, Phantom Blade Zero, Resident Evil Requiem, Sea of Remnants, Starfield, The Elder Scrolls 4, Oblivion Remastered, Where Wind Meets und weiteren verfügbar sein. Also das sind die, die angekündigt sind. Es wird ähnlich sein, wie es jetzt auch schon bei DLSS ist. Ihr kennt das ja bei sowohl Frame Generation, ich meine, das Upscaling ist mittlerweile in sehr, sehr vielen Spielen drin, Frame Generation in weniger Spielen, aber weil da die Entwickler halt auch nochmal mehr ran müssen als beim reinen Upscaling, das wird bei DLSS 5 auch so sein, aber die Aufnahmerate hat sich ja schon, ist schneller geworden und ich gehe auch davon aus, dass das jetzt auch im Vergleich zu einem Raytracing vor acht Jahren schneller gehen wird, dass das in mehr Spielen kommt. Aber es ist dann auch wirklich jetzt nur die Frage, wie kommt es auch bei den Entwicklern an? Das ist ja letztlich das Entscheidende, das darf man auch nicht vergessen. Die sind diejenigen, die das jetzt benutzen können, die jetzt da tweaken können, die die Einstellungen erstmal vornehmen können. Und die müssen dann auch diejenigen sein, die sagen, das ist geil, das will ich für mein Spiel haben. Und daran wird es dann auch viel hängen. Was machen die Entwickler damit? Wie nehmen sie das auf? Nvidia ist offensichtlich sehr selbstbewusst, was das angeht. Auch wenn die Ankündigung jetzt nicht so lief, wie sie sich das wahrscheinlich oft haben. Aber da bleiben auch noch viele Fragen offen.
Die Frage ist, kommt es für GTA 6? Ja, das ist die Frage. Wie sieht Crisis damit aus? Hat Max gerade im Chat gefragt.
Läuft es dann noch? Wie läuft es dann noch? Genau, wie läuft es? Glaubt ihr denn, die oder große Dev-Teams wurden damit schon geprimed? Also denen ist das schon länger bekannt? Gerade hinsichtlich Releases vom kommenden Jahr? Oder noch nicht da gekündigt gespielt? Ich denke auch, ja. Also da hat er wieder grundsätzlich gute Kontakte in die Branche natürlich. Und ich meine, das GTA-Frage ist spannend, weil ich sag mal, wenn sie mit denen gesprochen hätten und die schon gesagt hätten, jo, machen wir, also ich glaube, dann hätten sie das jetzt nicht verheimlicht, wäre jetzt mein Gefühl. Wer weiß, vielleicht kommt dann der nächste GTA-Trailer mit DLSS 5, keine Ahnung, auch möglich.
Aber ja, das ist natürlich so ein Spiel, ja, da ist halt auch wieder die Frage, ob es da dann wieder zu passt. So ein Spiel, das sowieso schon quasi damit hausiert, sage ich mal, sehr realistische State-of-the-Art-Grafik zu haben. Vielleicht braucht es das dann vielleicht doch gar nicht mehr so sehr und die Entwickler sind deswegen auch zurückhaltend. Möglich. Ich kann mir auch vorstellen, dass Rockstar da halt mit rum experimentiert und jetzt erst mal nichts zeigen wollte. Vielleicht machen sie es nur minimal. Ich kann mir halt gut vorstellen, dass man hätte ja durchaus vielleicht den Riecher haben können schon, wenn man so ein bisschen die Anti-KI-Stimmung aufschnappt, dass das vielleicht nicht so smart ist, das meist erwartete Spiel aller Zeiten jetzt mit AI-Slop zu verunreinigen. Ja, also ich kann mir gut vorstellen, dass sie damit schon lange am Experimentieren sind, relativ lange. Aber ob es kommen wird, ist halt wirklich die Frage. Braucht man es? Wollen sie es wirklich haben? Es wird spannend. Ich hätte es so gefeiert, wenn sie den Trailer einfach jetzt released hätten, jetzt GTA jetzt mit AI-Slop ist. Das wäre so schön für mich.
GTA 6 kommt ja im Herbst, wenn es denn im Herbst kommt, sowieso erstmal nur für Konsolen und nicht für den PC und zumindest nach meiner Kenntnis ist in aktuellen Konsolen, auch nicht in der PS5 Pro, eine Nvidia-Karte verbaut. Das heißt, das wird dann erst wahrscheinlich zur PC-Version überhaupt ein Thema werden können. Jetzt war der Backlash ja enorm und Regie, ich weiß nicht, ob wir Szenen aus Assassin's Creed Shadows und Oblivion Remastered noch parat haben, weil die würde ich gerne, bevor ich die zweite Umfrage starte, kurz zeigen. Okay, das dauert einen kleinen Moment. Bis dahin die Frage, jetzt war der Backlash, wie gesagt, enorm. Was muss Nvidia denn jetzt tun, um das Ruder rumzureißen, was die öffentliche Wahrnehmung angeht? Man kann differenziert darüber sprechen, man kann auch Beispiele zeigen von Spielen oder Stellen in den bekannten Szenen, wo die Technik enorm viel bringt und wo sie nicht die Gesichter der Charaktere versaut.
Das ist allerdings nicht das, worüber das Netz schimpft. Es gibt schon unzählige Memes darüber, wie das Monster aus Resident Evil jetzt mit DLS S5 aussieht und dann ist es halt so eine komplett überdramatisierte Model-Person. Die Häme ist groß. Wie kriegt Nvidia das jetzt wieder eingefangen? Was müssen sie tun? Ja, ich würde sagen, so wie Jensen Wang das gemacht hat, sich hinstellen und sagen, die Spieler haben alle keine Ahnung. Das ist der beste Weg. Ihr täuscht mich. Ja, so muss man das machen.
Ja, nein, mal im Ernst. Also, wie du gerade schon gesagt hast, ich glaube, das Beste, was sie tun können, ist, diese Technik in ihrer besten Version zu zeigen. Also möglichst schnell dafür zu sorgen, dass man Material hat, das was anderes zeigt, dass den Fokus auf was anderes legt, dass Charaktere vielleicht weniger AI-mäßig aussehen lässt, weil das denke ich, wird jetzt schon alles möglich sein mit der Technik. Weil letztlich reden wir ja davon, von dem, was wir alle schon längst machen können mit KI. Ihr sagen, hier ist das Bild, mach mal damit das und das. Das klappt.
Wer das öfter benutzt, der weiß, das kann super gut klappen und es kann auch richtig mies klappen. Und ich denke, vor dem Problem steht letztlich auch Nvidia. Also mir ist es schon so oft passiert, dass ich KI um irgendwas gebeten habe bei einem Bild, so auch simpelste Sachen, und sie hat einfach was völlig anderes gemacht oder komplett ignoriert, was ich gesagt habe.
Vielleicht ist Nvidia da mit der eigenen Machine Learning in Bezug auf Spiele schon weiter hoffentlich. Aber ich glaube, das ist das, was sie jetzt vor allem machen müssen. Ich meine, sie haben ja immerhin schon in dem offiziellen Ankündigungs-Trailer auch den Kommentar darunter gesetzt, hey, die Entwickler haben Kontrolle, das ist keine Sorge, das ist nicht einfach nur jetzt hier AI-Slob, aber die müssen dem jetzt auch mal dann Taten beziehungsweise Szenen folgen lassen. Ich glaube, das ist das Beste, was sie jetzt machen können. Genau, wahrscheinlich wäre es am besten, wenn sie sich wirklich konkret die Probleme vornehmen, die die Community jetzt am meisten beschäftigt und dann beweist, dass das eben kein Problem ist. Diese Gesichtsveränderung von, wie heißt Grace aus Requiem, die ja sehr wie ein AI-Model dann doch aussieht mit volleren Lippen und betont daran Wangenknochen und so. Das müssen sie beweisen, dass es eben auch anders geht. Es geht auch viel um die Atmosphäre, gerade Requiem, wieder dasselbe Beispiel in dieser Szene, in der Grace dasteht, ist im Original ohne DLSS 5. Es ist sehr neblig und es ist sehr düster und dann mit DLS S5 ist es halt.
Eher heller, nicht mehr so neblig, es ist einfach ein bisschen eine andere Atmosphäre und auch da müssen sie wahrscheinlich jetzt erstmal zeigen, ey, das war halt eine Einstellung, das kann man aber auch anders machen und da müssen sie jetzt, glaube ich, an die ganzen einzelnen Details, beziehungsweise das wäre, wahrscheinlich das Optimum, was sie jetzt machen könnten, um diesen Hate ein bisschen wieder zurückzufahren und eben zu beweisen, ey, das kann wirklich eine geile Technik sein und das, wir sind hier eben nicht komplett tone-deaf und denken, sieht super aus, obwohl es halt aussehen wie von JGPT erstellt.
Und was man auch nicht vergessen darf, der Backslash ist da, klar, aber wenn man genauer hinguckt, also natürlich sind die Stimmen am lautesten jetzt, die sich beschweren. Ich kann auch das auch völlig verstehen, ich möchte das auch gar keinem absprechen, diese ersten Reaktionen, aber allein wenn man zum Beispiel die Umfrage auf unserer Webseite anschaut, die haben wir auch direkt am Dienstag gestartet, da haben fast 2000 Leute mitgemacht, ich kann die Zahlen jetzt, also ich kann es einfach runterbrechen, da ist es quasi komplett 50-50. Also wir haben das sehr, also feinstufig, findest du das sehr positiv, was du gesehen hast, positiv, neutral, negativ oder sehr negativ und das ist quasi komplett 50-50, also sehr positiv, fast genauso viele Stimmen, das hat sogar am meisten, hat 26%, sehr negativ 21%, neutral sind 18% und positiv und negativ haben jeweils 17%. Also da sind die Leute, es ist nicht ganz so eindeutig, dass es alles scheiße, letztlich in der Gesamtwahrnehmung, würde ich sagen. Wie es jetzt vielleicht durch diesen massiven Backslash, den man halt natürlich in Foren sieht, der ist etwas größer als das, was, glaube ich, bei den Leuten tatsächlich angekommen ist. Das ist auch bei der PC Games Hardware, die haben auch eine Umfrage dazu gemacht, die haben immerhin auch 500 Teilnehmer. Da ist auch die meistbewertete Option ein echter Meilenstein, der die Zukunft der Computergrafik markieren wird, mit 32 Prozent.
Klar. Und auch da ist sogar noch positiver, also da ist die schlechteste Option, hat am wenigsten Prozent mit 21 Prozent. Also das ist für mich absoluter KI-Slop. Wird von mir kategorisch abgelehnt, hat die wenigsten Stimmen bei der PCGH. Ich denke, je, da kann man vielleicht sagen, je technologieaffiner die Zielgruppe, weil PCGH ist sicherlich nochmal ein Stück, klar, wir haben auch bei GameStop viele Techniker, viele Leute, aber auch natürlich Menschen, die mehr rein sich aufs Gaming fokussieren. Eine PC-Games-Hardware ist nochmal mit einem stärkeren Technik-Fokus Finde ich jetzt auch gar nicht so überraschend, dass quasi in solchen Zielgruppen das eher positiver oder nicht ganz so negativ wahrgenommen wird, wie vielleicht in, ja, also das soll ich jetzt nicht despektieren, ich klinge Menschen, die sich einfach jetzt nicht so intensiv mit der Technik vielleicht auseinandersetzen, was ja völlig in Ordnung ist. Dann siehst du halt auch erstmal nur das Endergebnis und da kann ich völlig verstehen, wenn man eine Grace vorher kennt und sie dann mit der SS5 sieht, was man dann vielleicht halt sagt, ja, nee, so nicht, bitte. Wir schauen uns jetzt noch eine kurze Szene an aus Assassin's Creed Shadows, wo es mal nicht um die Gesichter geht, sondern wo es um die Beleuchtung der Umgebung geht. Wer Assassin's Creed Shadows nicht kennt, das ist vor etwa einem Jahr erschienen, das beeindruckte schon in der Nicht-DLSS5-Version mit einer wahnsinnigen Weitsicht und erstaunlichen Wäldern. Haben wir denn die DLSS5, dieses Bild auch, liebe Regie, oder haben wir nur Szenen aus dem Spiel?
Ah, okay, die Szene von... Okay, wir schauen gerade noch nach der DLSS 5-Version. Die wäre in dem Digital Foundry-Video. Ich weiß gar nicht, ob die in dem offiziellen Material drin ist. Die Kollegen von Digital Foundry waren ja vor Ort auf der GTC und die konnten sich das vor Ort angucken, auch Live-Demos. Und ich meine, in dem Material ist das drin. Vielleicht mal als Hinweis an die Regie, wenn wir das mit Quellenangabe zeigen können.
Ich kann es ja schon mal schildern. Also man sieht da auch Naue, die Ninja in dem Spiel, wie sie auf einem, wie man bei Assassin's Creed irgendwo drauf sitzt. Die sitzt da irgendwo drauf und sie hat eine enorme Weitsicht. Und hinterher sind Wälder zu sehen und ein Hafen mit Schiffen und der Sonne, die sich auf dem Wasser spiegelt. Und mit DLSS 5 sieht die Figur fast genauso aus. Aber die Wälder im Hintergrund und das Wasser und die Bäume und deren Schatten und wie das Licht plastisch die Landschaft formt. Das ist tatsächlich ein enormer Unterschied und deswegen möchte ich euch, bevor wir es uns kurz anschauen, danach dann bitten, an einer Umfrage teilzunehmen und zwar dessen.
Wo glaubt ihr, ist denn jetzt der große Quantensprung oder was macht für euch den Unterschied aus? Sind es eher die Charaktere oder ist es eher die Umgebung oder beides oder keins von beiden? Das schauen wir uns jetzt gleich mal an. Selbiges war bei Oblivion zu sehen, dem Remaster. Da sind auch die Figuren so ein bisschen, naja gut, es sind quasi inzwischen 20 Jahre alte Figuren, die remastert wurden und über die dann der KI-Layer drüber gelaufen ist. Da ist natürlich klar, dass es ein bisschen merkwürdig aussieht, aber gerade wie die Gemäuer und die Pflanzen und die Lichtstimmung im Dorf ist, das ist tatsächlich ein enormer Unterschied. Und jetzt läuft die Umfrage, wo sollte DLSS 5 eingesetzt werden? Bei Charakteren, bei Umgebungen, bei beidem oder nirgendwo? Also niemand sagt bei Charakteren ja, bei Umgebungen eher nicht. Aber die Mehrheit, wie sich es aktuell entwickelt, scheint dafür zu sein, die Umgebungen oder beides einzusetzen. Woraus ich jetzt lese, vielleicht sollte man sich auch in der Präsentation dieser Technik erst mal darauf konzentrieren, wie die Spielwelten aussehen werden. Und wenn man KI-überarbeitete Charaktere zeigt, dann sollte man vielleicht, da nochmal eine Gruppe mit mehr oder mit weniger Tone-Deafness dransetzen, die sagen, okay, das sollten wir so veröffentlichen. Das hat Nvidia, glaube ich, falsch gemacht in den letzten Tagen.
Ja, mich würde so interessieren, habe ich auch schon mit den Kollegen darüber gesprochen, ob sie das wirklich nicht haben kommen sehen. Das fände ich echt sehr interessant. Oder ob Nvidia mittlerweile ein Punkt ist, wo sie könnten sie längst sein. Mein Gott, das ist das wertvollste Unternehmen der Welt. Also ihnen kann nicht völlig egal sein, was Leute über sie denken, das jetzt nicht. Aber am Ende wird Nvidia nicht so wichtig sein, was einige, was in Reddit-Foren jetzt passiert. Für die ist viel wichtiger, was ihre größten Kunden, wo sie ja am meisten Geld verdienen, sind auch längst nicht mehr wie Spieler. So realistisch muss man einfach sein, dass die da einfach nur noch raushauen. Wir werden es wohl leider nie erfahren, aber es würde mich schon sehr interessieren, ob sie davon jetzt überrascht wurden. Ja, man sieht die Szenen jetzt hier gerade, das ist schon, ja, das Bild gewinnt schon einfach an Tiefe. Also ich fand auch viele Szenen, die man gesehen hat, da ist es dieser Effekt, den man auch manchmal bei Raytracing hat, man sieht, es sieht anders aus, aber man weiß gar nicht, es sieht jetzt besser aus. Das hat man ja gerne mal, aber hier finde ich, ist es ziemlich eindeutig, dass es besser aussieht. Das ist der Richard Leadbetter hier von Digital Foundry, den wir jetzt hier gerade sehen. Die konnten sich das angucken. Und ja, die haben auch ihr Fett ein bisschen wegbekommen, die Kollegen von Digital Foundry.
Allgemein lohnt es sich, Artikel zu lesen zum Thema und weniger auf den Meme oder der Hype-Train aufzuspringen, vor allem den Hate-Train. Denn in Artikeln, habe ich jetzt teilweise schon gesehen, sind Sachen noch beschrieben und teilweise auch mit Video-Footage und Screenshots untermauert, die es viel besser zeigen. Das war zum Beispiel die ganze Zeit die Rede von irgendeiner Kaffeemaschine, die so toll aussah. Und das hat Nvidia selber nicht released, diese Footage. Aber es gibt Footage davon, wie die Kaffeemaschine vorher und später aussieht. Und das ist tatsächlich ein enormer Unterschied. Zum einen sieht sie halt aus wie eine...
Computergrafik auf Starfield-Engine-Niveau und das andere sieht halt einfach aus wie eine, man sieht, dass es Computergrafik ist, aber wie eine plastische Kaffeemaschine mit korrekten Chrom-Spiegelungen und so weiter. Und das ist halt schon geil. Das ist genau das, wo wir uns vor fünf Jahren drüber gefreut hätten, wenn Pathtracing sowas jetzt auf einmal ermöglicht. Und jetzt ist es halt noch einfacher, das zu ermöglichen. Zwei RTX 50 für eine Kaffeemaschine, sagt Schrottler. Geil. Ja, mein Gott, wenn der Kaffee allerdings schmeckt, dann ist es doch okay, würde ich sagen. Übrigens immer Siebträger beim Kaffee. Gute Kaffeemaschine kostet auch so viel wie zwei RTX 90. Irgendwann brauchen wir zwei Kaffeemaschinen für einen guten Kaffee. Ich muss nochmal einen Gamestar Tech Kaffeeartikel machen. Das habe ich mir schon lange vorgenommen. Naja, anderes Thema. Machen wir mal. So. Gibt es jetzt noch einen Weg zurück? Oder ist die Büchse der Pandora jetzt offen und ein neurales Rendering ist in der Welt und wird nicht mehr gehen.
Oder kommen wir... Es gibt keinen Weg mehr, keinen Weg zurück. Oder Jan, wie siehst du das? Ja, also ich hätte das jetzt genauso gesagt. Einen Weg zurück gibt es glaube ich nicht. Es wird in Zukunft Entwickler geben, die die DLSS 5 benutzen und welche, die es nicht benutzen. Und es wird wie so häufig halt im Endeffekt beim Entwickler liegen, ob das auch gut aussieht. Aber loskriegen, kriegen wir es jetzt nicht so begeistert, wie Nvidia davon ist gerade und wie sie es als Revolution verkaufen, da glaube ich auf gar keinen Fall, dass sie das in nächster Zeit holen lassen, selbst wenn es jetzt am Anfang nicht verwendet werden würde, ich bin davon überzeugt, dass sie daran weiterschrauben werden und das immer weiter verbessern werden und wenn das dann soweit ist, dass auch Gesichter nicht mehr komplett strukturell verändert werden, dann wird das, denke ich, auch mal hinten, Ja, und man darf ja auch nicht vergessen, das haben ja auch schon Stimmen aus der Branche sich positiv geäußert, jetzt in Todd Howard, gut, das ist jetzt auch nicht so überraschend mit Bethesda-Titeln, die haben es besonders nötig. Und welche Kontakte, die Nvidia eh hat, sie sind nun mal einfach da eine Riesenmarktdominanz. Mein AMD wird auch wahrscheinlich mit FSR Diamond, wir wissen ja noch nicht genau, was es sein wird, aber es ist schon sehr wahrscheinlich, dass die anderen das dann, vielleicht auch in Intel mit seinem Grafiker, wie es ja jetzt auch vorher schon der Fall war, dann auch machen werden. Jetzt nicht, weil alle Nvidia kopieren. Es ist nun mal einfach so, Nvidia ist da einfach oftmals Vorreiter bei bestimmten Techniken.
Und da sind ja auch Sachen bei, wo man jetzt heute auch sagen würde, ich meine, denken wir mal an DLSS zum Beispiel. Das erste DLSS, ganz am Anfang war das ja auch eher so, na ja, man konnte es schon auch direkt benutzen, aber da war die Bildqualität noch deutlich schlechter. Es gab deutlich eher Bildfehler als jetzt. Und heute ist DLSS ja an und für sich eigentlich ein kompletter No-Brainer. Das ist ja einfach nur eine super Technik, weil ich quasi höhere Bildqualität bei gleicher oder besserer Performance bekomme.
Und also man verliert ja meistens eigentlich nichts durch das Aktivieren von DLSS. Ob das halt bei DLSS 5 dann auch mal so wird, dass wir einfach immer sagen, so DLSS 5 ist in dem Spiel, also mach ich es an. Warten wir mal ab. Aber muss ich ja nicht. Ich muss ja auch jetzt schon Frame Generation, als nächste DLSS-Technik. Da kommt es ja auch sehr darauf an, wie empfindlich bin ich gegenüber dieser höheren Latenz, wie wichtig ist mir diese flüssigere Darstellung einfach von dem Bild und welches Spiel spiele ich. Nicht in jedem Spiel ist die Latenz so entscheidend. Und das wird auch für DLSS 5 gelten, weil Latenz wird hinzukommen. Die Frage, wie viel. Und wie sich die optischen Auswirkungen darstellen. Das wird auch sehr unterschiedlich einfach immer sein. Und es wird auch Spiele geben. Ich meine, wie viele super coole Indie-Spiele gibt es, die irgendeine Billo-Pixel-Art-Grafik haben. Da braucht man aber sehr wahrscheinlich kein DLSS 5. Auf der anderen Seite, vielleicht kann es da auch wieder irgendwelche coolen Sachen machen. Keine Ahnung. Also ich finde das einfach sehr spannend. Und bei aller Kritik, die man gegenüber KI haben kann, hat das einfach riesiges Potenzial. Und ich finde es schon beeindruckend, dass entweder da jetzt schon an dem Punkt ist, sagen zu können, das kriegen wir in Echtzeit hin. Das finde ich technisch bemerkenswert.
Dem entnehme ich, dass ihr oder wir alle drei dem Ganzen positiv und optimistisch gegenübertreten. Wir alle hoffen, dass wir uns irgendwann mal Grafikkarten leisten können, die das dann auch tun.
Du schenkst die uns, Daniel. Ich dachte, du hast es ja abgemacht. Ich schenke dir eine zweite Siebträgermaschine. Die kannst du dann koppeln und dann einen doppelt so geilen Kaffee machen. Auch gut, ja. Oder zwei gleichzeitig. Wenn du Gäste hast, ist das das größte Problem von Siebträgermaschinen. Wenn du Gäste hast, dann dauert Zeit, bis die alle ihren Kaffee haben. Deswegen gar nicht erst Leute einladen. Oder so. Einfach zocken im Keller. Wenn du deine 5090 daheim hast, dann ist die nämlich nicht mehr daheim, wenn Gäste da waren. Wenn die DLSS 5 kann. Was hast du für Gäste? Freche. Ja, unterm Strich war vielleicht die Marketingrunde von Nvidia nicht die cleverste, aber das haben sie jetzt hoffentlich auch gelernt und wir freuen uns auf kommende Footage mit DLSS 5 und wahrscheinlich haben wir trotzdem ein Stück der Zukunft gesehen. Diese Woche. Vielen Dank, dass ihr dabei wart bei diesem recht spontanen Tech Talk, was wir immer mal wieder machen werden, wenn wir ein spannendes Tech-Thema haben, dass wir euch auch hier live im Stream und dann auf GameStar Talk und im Podcast mit Themen rund um die Technik versorgen können. Danke, dass ihr dabei wart, Jan und Nils.