NewRaven hat geschrieben: ↑25.06.2021 15:16Uhhh... was?! Natürlich kreiert die KI keine Details, dass ist auch überhaupt nicht ihr Job. Ihr Job ist es, anhand höher aufgelöster Vorlagen zu erkennen, wo Details aus höher aufgelösten Texturen, die ja vorliegen (beschränken wir uns erstmal der Einfachheit ruhig darauf) in runtergerechneten Texturauflösungen korrekt hinpassen, wenn diese Textur skaliert auf ein Mesh gelegt wird. Und mehr als diese Angaben braucht das "neuronale Netz" dann auch nicht generieren, dass muss da nichts "erfinden", dass muss auch nicht lokal laufen - das muss einfach nur definieren können, wo welche Details aus höher aufgelösten Texturen auch bei den dann verwendeten niedriger aufeglösten Texturen noch noch sichtbar wären, wenn man eine Textur in dieser Auflösung über ein Model in der Spielwelt stülpt - was sie im Regelfall skaliert - den Rest macht die DLSS-Implementierung im Spiel selbst, sprich die Engine. Die Leistung von DLSS 2.x - und eben der KI dahinter, ist eben eher, dass es, um diese "Anweisungen" zu geben eben nicht mehr unzählige Vorlagen von einem konkreten Spiel für ein konkretes Spiel braucht, um zu wissen, wo sie welches Detail ergänzen kann und wo nicht, sondern das eben aus der Masse von Daten vorausberechnen kann.
Über welchen Part diskutieren wir jetzt eigentlich? Darüber, dass eine niedrigere Scaling-Textur in 720p weniger Details respektive Bildinformationen hat, als eine native Textur in 1440p. Darüber, dass eine 4k Textur sichtbare Details verliert, wenn man sie einfach 720p runterrechnet? Darüber, dass es möglich ist, diesem 720p Bild gezielt Details wieder hinzuzufügen, wenn man die 4k Vorlage kennt (oder KI-berechnet "erahnt") und das, mit diesen Details wieder hinzugefügt, ein Bild in Bezug auf diese rekonstruierten Dinge in eben diesen Details (und nur in denen) besser aussehen kann als ein 1080p-Bild, bei dem man diese Details eben nicht wieder hinzugefügt hat? Ich bin etwas... irritiert. Und nein, natürlich ist das nicht "super präzise" weil dieses "Anweisungssystem" eben immernoch auf berechneten Wahrscheinlichkeiten beruht - deshalb ja eben auch KI.
Auf deinem PC läuft keine KI. Und das ist im Grunde auch keine KI, sondern einfach nur ein stinknormales, neuronales Netzwerk. Ein neuronales Netzwerk ist einfach eine erstaunlich simple (und zugleich mächtige) Technik, mit denen man Muster erkennen und vergleichen kann. Das "KI" zu nennen ist im Grunde Marketing-bullshit.
Das neuronale Netzwerk läuft bei Nvidia-Devs, um beim DLSS-Code mitzuhelfen. Auf deinem PC is NICHTS von dem Netzwerk, sondern einfach nur die Daten, die von dem Netzwerk ausgespuckt und in den Code integriert worden sind.
Deswegen sage ich, dass ich teils den Eindruck habe, als ob ihr aufs Marketing reingefallen sind. Was übrigens auch kein persönlicher Angriff sein soll, denn all die Informationen zu DLSS sind oft extrem irrefüherend. Selbst AMDs FSR ist teils ein Mix aus absurden Behauptungen und dann Anmerkungen im Kleingedruckten, die sich praktisch dafür entschuldigen.
Mich hat da auch einiges verwirrt, und ich kann eigentlich nur sagen, dass viele Behauptungen schlichtweg keinen Sinn ergeben. Allein grundsätzliche Skepsis gegenüber Werbung und technischen Wunderversprechen hat mich davor bewahrt, darauf zu sehr reinzufallen.
Wie auch immer, was ich Leons Link entnehme, wo einer endlich mal eine substanzielle Erklärung liefert, ist das DLSS 2.0 eben nahezu gar nichts macht, von dem, was du da sagst. DLSS 1.0 war wohl tatsächlich ambitionierter, aber da man einfach nicht Details erfinden kann, hat es eben nicht sonderlich gut funktioniert und oft schlechtere Ergebnisses als das vergleichsweise primitivere FSR geliefert.
Falls die Erklärung im Link also korrekt ist, dann basiert DLSS 2.0 dagegen fast ausschließlich auf temporalen Upscaling. Sprich, wenn du die Kamera bewegst, dann "wiederverwertet" es alte Pixel. Grundsätzlich gesagt, du drehst dich ein winziges bisschen nach rechts, die alten Pixel wandern nach links. Das hochskalierte Bild ist dann zusammengesetzt aus den alten und neuen Pixeln. Was geht, weil beim hochskalieren eben ein Haufen Pixel "kreativ" ausgefüllt werden müssen.
Da kann durchaus ein bisschen komplexere Technik dahinterstecken; schließlich nutzt Anti-Aliasing seit jeher "edge detection", um Kanten zu erkennen, und DLSS 2.0 analysiert anscheinend ganze Pixelwolken dafür (Mustererkennungg von Pixeln, KEINE echte Objekterkennung).
Was mich gerade nervt ist, dass Nvidia mit diesen dämlichen Versprechen herkommt, die teils völlig irreführend sind. Das wäre an sich schon dumm genug, aber DLSS 2 kann tatsächlich verdammt gute Ergebnisse liefern, wo man den Unterschied kaum noch erkennt. Wenn überhaupt ist das der Grund, warum so mancher tatsächlich der Werbung glaubt.
Ehrlichkeit hätte vermutlich besser funktioniert und sehr viel weniger Verwirrung erzeugt. Aber ist halt Unternehmenswerbung, diese Leute sind praktisch pathologische Lügner von Beruf.