Irenicus hat geschrieben: ↑26.09.2021 14:31
also so wie ich das verstanden haben wissen wir schon ziemlich genau was die "ki" macht, sie wandelt ein niedrig aufgelöstes bild in ein höheres um und vergleicht dann das bild mit dem original, macht einen datenabgleich zwischen den beiden bildern und passt dann ihr vorgehen aus den abweichungen an.
das wie ist halt die frage.^^ also man kann davon ausgehen das ein künstliches neurales netz die grundlage bildet, aber wie komplex die struktur etc. ist da bin zumindest ich überfragt.^^
Ich denke nicht, dass die "KI" das wirklich macht. Künstliche Intelligenz beschreibt in diesem Zusammenhang nur ein Program, das Denkmuster nachahmen will. Und genau das tut ein neurales Netz, es versucht Verbindungen und Muster zu erkennen.
Nvidia ist da nicht hilfreich, wenn sie sagen, es "trainiert" die KI, wenn der eigentliche Trainingsprozess wohl eher die eigentliche "KI" ist. Am Ende des Prozesses kommt dann keine künstliche Intelligenz aus, sondern einfach Algorithmen, mit denen deine Grafikkarte die Erkenntnisse des neuralen Netzwerks anwenden kann. Diese Algorithmen sind sicherlich komplexer und besser als was AMD zB mit FSR macht, oder sogar das temporale upscaling der Unreal Engine, aber das ist kein hochintelligentes Program hinter.
Das mit den 16k Bildern wird oft frei interpretiert, aber IIRC hat Nvidia klar gesagt, dass diese Bilder nur bei ihnen sind. Was dieses neurale Netz da macht, ist vermutlich ein 1080p/1440p/4k Bild mit dem 16k Bild zu vergleichen, und dann Daten darüber zu sammeln, wo Details verloren gehen. Das sind aber keine Objekte, sondern einfach nur low level Pixelkonstellationen. Wie gesagt, der Hauptzwecke eines neuralen Netzwerks ist meist, Muster zu erkennen, und die dann zu interpolieren. Diese Erkentnisse werden dann gespeichert und mittels Treiber versendet, wo die Nvidia GPU das durch die Tensorkerne jagen kann, um etwas komplexeres hochskalieren zu betreiben.
DLSS 1 war anscheinend super ambitioniert in der Hinsicht, aber leider nicht super effektiv, eben weil das alles sehr schwer umsetzbar ist. DLSS 2.0 scheint dagegen hauptsächlich temporal zu arbeiten, sprich, es guckt von einem Frame zum nächsten, wie sich Pixel bewegen, welche "verbunden" sind, wo für gewöhnlich Detail verloren geht.