Mal schauen. Trotz einiger Probleme ist Win10 generell eins der "guten" Windows, und die leben IIRC für gewöhnlich deutlich länger als erwartet. Auch wenn W11 eher ein großes Updates als neues Windows ist, dürften die strenger als üblichen Vorraussetzungen den Umstieg deutlich verlangsamen.
Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Moderatoren: Moderatoren, Redakteure
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
-
- Beiträge: 15758
- Registriert: 23.12.2007 19:02
- Persönliche Nachricht:
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Naja, man hat uns damals gesagt es gibt kein anderes Windows als 10 mehr, nur noch Updates. Und jetzt bringen sie doch wieder ein 11.
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Es ist auch Unsinn, sich derart festlegen zu wollen. Ich habe da ja eine Theorie: Wie lange gab es jetzt Mac OS X? Das X steht da ja auch für 10, weil es davor Mac OS 9 gab. Daran wollte sich Microsoft einfach orientieren. Doch nun kommt plötzlich doch ein macOS 11 und somit ist dieses Paradigma, eine Version "für immer" zu haben, infrage gestellt vom großen Vorbild, von dem man sich offenbar hat inspirieren lassen. Allerdings sind das alles nur Namen. Man wird ja genau so kostenlos auf Windows 11 updaten können wie auf ein neues Frühjahr- oder Herbst-Update von Windows 10. Insofern viel Lärm um nichts, wenn man sich da jetzt irgendwie von Microsoft hintergangen fühlt.Ryan2k6(Danke für 20 Jahre 4p) hat geschrieben: ↑24.09.2021 14:48Naja, man hat uns damals gesagt es gibt kein anderes Windows als 10 mehr, nur noch Updates. Und jetzt bringen sie doch wieder ein 11.
-
- Beiträge: 15758
- Registriert: 23.12.2007 19:02
- Persönliche Nachricht:
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
10.0 von mac OS kam 2001, 11 dann erst 2020 und jetzt kommt 12. Offenbar sind sie von ihrem 10.X über viele Jahre also abgerückt und machen wieder mehr neue Hauptversionen.
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Sind halt Geschäftspläne. Wobei W11 ja auch nur ein größeres Update ist.Ryan2k6(Danke für 20 Jahre 4p) hat geschrieben: ↑24.09.2021 14:48 Naja, man hat uns damals gesagt es gibt kein anderes Windows als 10 mehr, nur noch Updates. Und jetzt bringen sie doch wieder ein 11.
-
- Beiträge: 1379
- Registriert: 12.03.2008 20:17
- Persönliche Nachricht:
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Doch es macht Sinn. Es hat auch Niemand behauptet, dass ein Spiel mit DLSS pauschal detaillierter ist, aber teilweise ist es tatsächlich so. Ich zitiere dazu mal die PC Games, die DLSS 2.0 damals ausführlich anhand von Control getestet hat:
Dazu noch der Link zum Bericht:Die interne Render-Auflösung fällt bei aktivem DLSS geringer aus als die im Spiel eingestellte. Es liegt in der Natur der Sache, dass eine reduzierte Auflösung zu entsprechend geringerer Qualität und stärkerem Aliasing führt. Hier setzt das Herzstück von DLSS an: Die Software weiß aus den Trainingssessions, welche Informationen verlorengehen, und versucht diese nach bestem Wissen spatial (räumlich) und temporal (zeitlich) aufzuwerten. Durch das erlangte Wissen, bei dem 16K-Bilder die nachzubildende Referenz darstellen, gelingt es DLSS mitunter, Details darzustellen, die in gängigen Echtzeitauflösungen im Pixelraster verschwinden.
https://www.pcgameshardware.de/Nvidia-G ... t-1346257/
Enthält auch Vergleichsscreens, die das sehr schön belegen.
- Chibiterasu
- Beiträge: 28639
- Registriert: 20.08.2009 20:37
- Persönliche Nachricht:
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Ich kenne mich ja gar nicht aus, aber logisch ist das für mich dann, wenn die Details schlicht durch das Erlernen des 16K Materials durch die KI passiert. Hier müsste man dann das Spiel in 16K nativ gerendert mit einer niedrigeren Auflösung durch DLSS auf 16K hochskaliert vergleichen (in 16K spielt halt niemand).
Wenn dann DLSS immer noch detaillierter ist, würde ich es auch nicht ganz glauben können, was da passiert
Was ich jetzt aber interessant finde ist, dass eine spiele-spezifische Anpassung der KI ja scheinbar nicht mehr unbedingt notwendig ist, sondern stattdessen auf allgemeine "Erfahrungswerte" zurückgegriffen werden kann.
Das kapier ich dann auch nicht so ganz, wie das so gut hinhauen soll.
Wenn dann DLSS immer noch detaillierter ist, würde ich es auch nicht ganz glauben können, was da passiert
Was ich jetzt aber interessant finde ist, dass eine spiele-spezifische Anpassung der KI ja scheinbar nicht mehr unbedingt notwendig ist, sondern stattdessen auf allgemeine "Erfahrungswerte" zurückgegriffen werden kann.
Das kapier ich dann auch nicht so ganz, wie das so gut hinhauen soll.
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Realistisches Moos sieht halt immer ähnlich aus, genau wie irgend welche metallene Oberflächen, oder irgend welche anderen Materialien. Da hast du viel Potenzial. Das geht eben soweit, dass du den Kram sehr wohl auch über die Trainingsauflösung hinaus jagen könntest und Bildverbesserung wahrnehmen könntest*. (zum beispiel bei weiter entfernten Elementen) Eine flache Textur direkt vor der Nase wird nicht profitieren, aber in den Raum hinein, warum nicht?
*) momentan machbare Performance mal außen vorgelassen.
*) momentan machbare Performance mal außen vorgelassen.
Zuletzt geändert von Levi am 25.09.2021 12:24, insgesamt 2-mal geändert.
- Chibiterasu
- Beiträge: 28639
- Registriert: 20.08.2009 20:37
- Persönliche Nachricht:
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Du meinst, dass ein in 16K gerendertes Bild mit einem weit entfernten Baum im Hintergrund einen "weniger schönen/detaillierten" Baum als ein mit (auf 16K Material trainiertes) DLSS auf 16K hochskaliertes Bild liefern könnte?
Das geht dann ja eigentlich mehr schon in die Geschmacksrichtung als dass man sagen kann "objektiv mehr Details" oder?
Das geht dann ja eigentlich mehr schon in die Geschmacksrichtung als dass man sagen kann "objektiv mehr Details" oder?
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Objektiv ist hier auch kein Thema. Was dazu gezeichnet wird, muss nicht zwingend der digitalen Realität entsprechen! (Deswegen kannst du soetwas auch nicht für den csi Bild Verbesserer benutzen. Der wird dir ein schönes Gesicht zeichnen... Das muss aber nicht zwingend das korrekte Gesicht sein.) Hier geht's immer um den "Eindruck".
Nichts desto trotz bekommst du halt mehr Details ins Bild, die den gesamt Eindruck verbessern. Und darum geht's halt. Es soll besser aussehen.
Vielleicht nochmal ein anderer Ansatz der Erklärung:
Die ki "erfindet" Details hinzu.
Noch ein Edit: genau, wie du es mit dem Baum beschrieben hast, mein ich das.
Nichts desto trotz bekommst du halt mehr Details ins Bild, die den gesamt Eindruck verbessern. Und darum geht's halt. Es soll besser aussehen.
Vielleicht nochmal ein anderer Ansatz der Erklärung:
Die ki "erfindet" Details hinzu.
Noch ein Edit: genau, wie du es mit dem Baum beschrieben hast, mein ich das.
Zuletzt geändert von Levi am 25.09.2021 12:39, insgesamt 3-mal geändert.
- Chibiterasu
- Beiträge: 28639
- Registriert: 20.08.2009 20:37
- Persönliche Nachricht:
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Ja, so hab ich das verstanden - aber immer auf Basis des angelernten Materials. Wenn das dann noch über den Detailgrad des Quellmaterials für das Anlernen hinausgehen kann, bin ich durchaus überrascht. Spannend.
-
- Beiträge: 1379
- Registriert: 12.03.2008 20:17
- Persönliche Nachricht:
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Nein.Chibiterasu hat geschrieben: ↑25.09.2021 12:28 Du meinst, dass ein in 16K gerendertes Bild mit einem weit entfernten Baum im Hintergrund einen "weniger schönen/detaillierten" Baum als ein mit (auf 16K Material trainiertes) DLSS auf 16K hochskaliertes Bild liefern könnte?
Das geht dann ja eigentlich mehr schon in die Geschmacksrichtung als dass man sagen kann "objektiv mehr Details" oder?
Die vom Ki-Algorythmus antrainierten Bilder sind nativ 16k.
Sagen wir mal Du spielst in 1440p mit DLSS auf "Quality". Damit ist die native Renderauflösung 1080p, die dann mit DLSS auf 1440p per Ki-Algorythmus hochgerechnet wird. Das Ergebnis ist hierbei in vielen Fällen besser und teilweise detaillierter als natives 1440p und das v.A. mit eingebauter Kantenglättung (die man bei nativ 1440p ja separat aktivieren müsste und die zusätzliche Leistung kostet.). Obendrein hat man dabei noch einen ordentlichen Performancegewinn.
Die Qualität von echtem 16k kann man so natürlich nicht erreichen, aber es können teilweise Details dargestellt werden, die sonst in 1440p durchs Pixelraster fallen würden.
- Chibiterasu
- Beiträge: 28639
- Registriert: 20.08.2009 20:37
- Persönliche Nachricht:
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
^^Den ersten Teil habe ich schon verstanden.
Es geht mir ja um deinen letzten Satz, wobei ein "dazuerfinden von Details der KI" wie Levi sagt, ja implizieren müsste, dass ein 16K DLSS Bild mit 16K Renderauflösung theoretisch noch detaillierter bzw. "schöner" sein könnte als ein normales 16K gerendertes Bild, einfach weil die KI quasi noch weiter optimiert.
* Immer davon ausgehend, dass die KI mit 16K Bildern trainiert wird (und nicht noch höher).
Es geht mir ja um deinen letzten Satz, wobei ein "dazuerfinden von Details der KI" wie Levi sagt, ja implizieren müsste, dass ein 16K DLSS Bild mit 16K Renderauflösung theoretisch noch detaillierter bzw. "schöner" sein könnte als ein normales 16K gerendertes Bild, einfach weil die KI quasi noch weiter optimiert.
* Immer davon ausgehend, dass die KI mit 16K Bildern trainiert wird (und nicht noch höher).
Zuletzt geändert von Chibiterasu am 25.09.2021 13:07, insgesamt 1-mal geändert.
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Die Sache, dir mir Zweifel bereitet, ist, dass es eben nur sehr begrenzt Muster erkennen kann. Da wird kein Bild von der KI gespeichert, die GPU kann keine Objekte erkennen, das wäre viel zu kompliziert und viel zu viel Speicher.
Effektiv kann eine GPU, nach meinem Verständnis, eigentlich nur vage Pixelmuster erkennen und je nach Wahrscheinlickeit ins Bild einrechnen. Und das macht bei er Technik auch Sinn, Mustererkennung ist exakt, wozu ein neurales Netzwerk gut ist. Aber da all das hier in Echtzeit ist und größere Muster extrem speicherintensiv wären, ist das eben auch sehr begrenzt.
Das mag technisch gesehen mehr Details sein, und gut aussehen, aber es kann nicht "korrekter" als ein natives Bild sein.
Effektiv kann eine GPU, nach meinem Verständnis, eigentlich nur vage Pixelmuster erkennen und je nach Wahrscheinlickeit ins Bild einrechnen. Und das macht bei er Technik auch Sinn, Mustererkennung ist exakt, wozu ein neurales Netzwerk gut ist. Aber da all das hier in Echtzeit ist und größere Muster extrem speicherintensiv wären, ist das eben auch sehr begrenzt.
Das mag technisch gesehen mehr Details sein, und gut aussehen, aber es kann nicht "korrekter" als ein natives Bild sein.
Zuletzt geändert von Temeter am 25.09.2021 13:23, insgesamt 1-mal geändert.
Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung
Hallo
Es ist beeindruckend, wie man sich gegen Erkenntnisse wehren kann. Einfach weil man es nicht versteht oder sich nicht vorstellen kann.
Christoph
Es ist beeindruckend, wie man sich gegen Erkenntnisse wehren kann. Einfach weil man es nicht versteht oder sich nicht vorstellen kann.
Christoph