GF-100: GeForce GTX 470 & GeForce GTX 480

Der Tummelplatz für alle PC-Spieler!

Moderatoren: Moderatoren, Redakteure

Benutzeravatar
Nova eXe
Beiträge: 329
Registriert: 24.01.2008 18:43
Persönliche Nachricht:

Beitrag von Nova eXe »

Oberdepp hat geschrieben:Ich habe eine 5870 und beim besten Willen, was will ich mit einer noch besseren Grafikkarte, die dann eh nicht ausgelastet wird? Am Ende habe ich dann mit einer neuen NVidia sogar noch weniger FPS, weil ich die nicht gescheit mit Daten füttere, da die Spiele einfach nicht mehr hergeben. Ich spiele ja jetzt schon Crysis auf 1900x1080, Max-Settings und mit 4xAA und habe immer an die 30 FPS, egal wieviel los ist, teils sogar über 40. Jedes andere Game muss ich mit aktiviertem VSync spielen, weil ich einfach zu viele FPS habe.

Momentan entwickeln die Grafikkartenhersteller irgendwie am Kunden vorbei. Die sollen leistungsstarke Grafikkarten für Jedermann auf den Markt schmeißen, sowie es ATI noch nicht allzulang her mit der 5770 gemacht hat.
Mal ein paar Gründe, für die Notwendigkeit:

1. 30fps sind nicht grade toll, geschweige denn ruckelfrei.
2. VSync ist ne Qualitätseinstellung, die immer an sein sollte.
3. Es gibt Monitore, die 2560x1600 schaffen.
4. lad dir ein nhancer Equivalent für deine ATI runter und stelle dort 4x4 AA ein (nicht 4x AA), dann wirst du sehen, wie schlecht aktuelle Grafikkarten eigentlich sind.

Nicht immer nur den eigenen Anwendungsbereich sehen und danach Weiterentwicklungen beurteilen.

@Stromverbrauch:
Habt ihr auch alle A++ Kühlschkränke oder Trockner mit Wärmetauscher?
OK, die kosten ma eben 500 - 1000€ mehr als Normale, aber es scheint ja äußerst wichtig zu sein.
Ich werfe euch allen mal volgendes vor:

Wenn ne GTX380 rauskommen würde, die bei gleicher Leistung 25% weniger Strom zieht, aber dafür auch 100€ teurer ist, würde es niemanden mehr groß jucken. Die allerwenigsten würden die 100€ mehr ausgeben.

Wer nennt den ein "S" CPU von Intel sein Eigen? Wer hat wissentlich mehr Geld für gleiche Leistung, aber weniger Stromverbrauch ausgegeben?
Q9550 = ~190€
Q9550S = 270€
[img]http://mitglied.lycos.de/m83nova/Grenadier01.jpg[/img]
P/L gut heißt nicht gut, sondern für das Geld, ist es gut!
Benutzeravatar
Philinator
Beiträge: 94
Registriert: 17.10.2009 18:57
Persönliche Nachricht:

Beitrag von Philinator »

Nee NVieda kommt mir eqal bei welcher leistung niemals in de kiste und wenn de dann nen eigense atomkraftwerk brauchst um den pc zu betreiben und dann wird dein zimmer auch noch zur sauna wird XD naja ich bin ati fanboy und freu mich über meine 4890 vapor x
Neu heißt nicht, dass das Teil funktioniert, sondern nur, dass du der erste bist, der es herausfindet.
Sorry aber ich fand das Zitat total geil!!
Ich bin staatlich geprüfter ATI Fanboy !!!
Oberdepp
Beiträge: 2159
Registriert: 14.04.2005 13:55
User ist gesperrt.
Persönliche Nachricht:

Beitrag von Oberdepp »

Nova eXe hat geschrieben:
Oberdepp hat geschrieben:Ich habe eine 5870 und beim besten Willen, was will ich mit einer noch besseren Grafikkarte, die dann eh nicht ausgelastet wird? Am Ende habe ich dann mit einer neuen NVidia sogar noch weniger FPS, weil ich die nicht gescheit mit Daten füttere, da die Spiele einfach nicht mehr hergeben. Ich spiele ja jetzt schon Crysis auf 1900x1080, Max-Settings und mit 4xAA und habe immer an die 30 FPS, egal wieviel los ist, teils sogar über 40. Jedes andere Game muss ich mit aktiviertem VSync spielen, weil ich einfach zu viele FPS habe.

Momentan entwickeln die Grafikkartenhersteller irgendwie am Kunden vorbei. Die sollen leistungsstarke Grafikkarten für Jedermann auf den Markt schmeißen, sowie es ATI noch nicht allzulang her mit der 5770 gemacht hat.
Mal ein paar Gründe, für die Notwendigkeit:

1. 30fps sind nicht grade toll, geschweige denn ruckelfrei.
2. VSync ist ne Qualitätseinstellung, die immer an sein sollte.
3. Es gibt Monitore, die 2560x1600 schaffen.
4. lad dir ein nhancer Equivalent für deine ATI runter und stelle dort 4x4 AA ein (nicht 4x AA), dann wirst du sehen, wie schlecht aktuelle Grafikkarten eigentlich sind.

Nicht immer nur den eigenen Anwendungsbereich sehen und danach Weiterentwicklungen beurteilen.

@Stromverbrauch:
Habt ihr auch alle A++ Kühlschkränke oder Trockner mit Wärmetauscher?
OK, die kosten ma eben 500 - 1000€ mehr als Normale, aber es scheint ja äußerst wichtig zu sein.
Ich werfe euch allen mal volgendes vor:

Wenn ne GTX380 rauskommen würde, die bei gleicher Leistung 25% weniger Strom zieht, aber dafür auch 100€ teurer ist, würde es niemanden mehr groß jucken. Die allerwenigsten würden die 100€ mehr ausgeben.

Wer nennt den ein "S" CPU von Intel sein Eigen? Wer hat wissentlich mehr Geld für gleiche Leistung, aber weniger Stromverbrauch ausgegeben?
Q9550 = ~190€
Q9550S = 270€
Blablabla, bei Crysis mindestens 30 FPS zu haben bei so einer hohen Auflsöung mit vierfachem Anti-Aliasing ist schlecht? Wie wäre es, wenn du mal etwas weiter denkst? Schön und gut, dass nach oben noch Luft ist, interessiert aber den Kunden nicht und das war meine Aussage, dass nämlich die Kartenhersteller nun anfangen wieder am Kunden vorbei zu entwickeln. Der Markt zieht der Technik nicht immer gleich auf Gleichschritt hinterher, Freundchen.

Und VSync ist keine Qualitätseinstellung!
Benutzeravatar
MØnd©LØud
Beiträge: 1482
Registriert: 15.02.2009 16:45
Persönliche Nachricht:

Beitrag von MØnd©LØud »

Landungsbrücken hat geschrieben:
FanBoy hat geschrieben:Sie verkünden sogar bis zu 600% mehr performenz zu der stärksten ATI Grafikkarte. Wenn es so sein sollte Hut ab. Wenn nicht ein gewaltiger schuss ins eigene Bein!
Hö? Zur 5970 :lol: ? Wo haste das denn her o.o
ja tut mir leid aber das glaube ich auch nicht,aber toll wärs dann würd ich für die graka schon 1000 euro und mehr bezahlen
BildBild
Benutzeravatar
PabloCHILE
Beiträge: 1187
Registriert: 10.10.2006 12:12
Persönliche Nachricht:

Beitrag von PabloCHILE »

also Leute wer ne 4870 , Vapor-X 4890 oder ne equivalente Karte von NVIDIA sein eigen nennt der dürfte keine schwierigkeiten mit allen jetzt noch kommenden Games bekommen egal ob die DirectX 11 haben oder eben nicht nur wenn man halt ein komplett neues Sys aufbaut ist es angebracht zu überlegen ob man nun die neueste von NVIDIA oder von ATI kauft, angebracht ist aber in jedenfall Geduld des Geldes wegen
Bild

http://www.youtube.com/user/PabloCHILE76?feature=mhee
Benutzeravatar
King Rosi
Beiträge: 12088
Registriert: 12.02.2007 18:18
Persönliche Nachricht:

Beitrag von King Rosi »

bevor ich keine glasklaren fakten (HD5870 vs. GTX380) auf dem tisch habe, lässt mich diese news kalt.

die übliche werbetrommel, mehr ist das nicht.
Benutzeravatar
Mangan90
Beiträge: 464
Registriert: 06.07.2009 16:17
Persönliche Nachricht:

Beitrag von Mangan90 »

Denke auch das der Hype nach neuer Hardware wieder einsetzt wenn Crysis 2 kommt. Seid dem Release von Crysis 1 hat sich ja in sachen Grafik nicht sehr viel verändert, meiner meinung nach. Den wird es sich vieleicht wieder lohnen neuen Kram anzuschaffen.
Benutzeravatar
Team|WoD-derkrassemow
Beiträge: 98
Registriert: 10.10.2007 21:16
Persönliche Nachricht:

Beitrag von Team|WoD-derkrassemow »

es ist nur für die wichtig die endlich wissen wollen, wann sie sich ihre neue 5000er von ati holen können wenn man sie auch bezahlen kann und möchte. ok, dafür muss sie auch erstmal gut verfügbar sein... :roll:

wenn ich mir die anfangspreise der 5000er betrachte, wird mir schon schwindelig beim gedanken was die 300er kosten sollen. die 200er kosten ja auch noch echt viel...

ein glück hab ich mir vor nem 3/4jahr (oder so) ne gtx 285 geholt. da brauch ich mir eh nix kaufen. dx11 brauch ich net. nur wegen BC2? nö nö... dann lieber nen quad. der bringt mich sicher mehr nach vorne...

Nihil aliud est ebrietas quam voluntaria insania! - Besoffenheit ist nichts anderes als freiwilliger Wahnsinn!

Mein Clan: TeamWoD www.teamwod.de
Benutzeravatar
S3rious Phil
Beiträge: 803
Registriert: 03.05.2008 20:50
Persönliche Nachricht:

Beitrag von S3rious Phil »

Nova eXe hat geschrieben: 2. VSync ist ne Qualitätseinstellung, die immer an sein sollte.
Würde ich nicht sagen, wenn es nicht auffällt stelle ich es immer ab.
Nur wenn das Tearing unerträglich wird greife ich darauf zurück.
Kephis
Beiträge: 391
Registriert: 12.06.2009 21:14
Persönliche Nachricht:

Beitrag von Kephis »

Endlich kommt Fermi mal zumindest in Sicht, wenn auch wahrscheinlich nur die abgespeckte Version (448CC statt 512CC). Wird auch höchte Zeit für ne neue Gen da die aktuellen doch schon hart an ihren Grenzen angekommen sind.

Das sie schneller als die ATIs sein werden steht ja sowieso ausser Frage dazu muß man sich nur die Daten ansehen und etwas rechnen.

RV870:
DirectX 11, 1600 Shader-Einheiten, 80 TMUs, 32 ROPs, 256 Bit DDR Interface (bis GDDR5)

Ergibt: 1x MADD pro Takt (2 Flop/Takt), 2720 GFlops (Radeon HD 5870), 68 MT/sec (Radeon HD 5870), 154 GB/sec (Radeon HD 5870), 27200 MPix/s

GT200b:
DirectX 10, 240 Shader-Einheiten, 80 TMUs, 32 ROPs, 512 Bit DDR Interface (bis GDDR3)

Ergibt: 1x MADD + 1x MUL pro Takt (2+1 Flop/Takt), 1063 GFlops (GeForce GTX 285), 52 MT/sec (GeForce GTX 285), 159 GB/sec (GeForce GTX 285), 20736 MPix/s

GF100:
DirectX 11, 512 Shader-Einheiten (erste Version 448CC), 64 TMUs, 48 ROPs, 384 Bit DDR Interface (bis GDDR5), Takt (Kann sich ändern, geht auf A2 Tapeout zurück) GTX360 650/1500/1050 GTX380 650/1700/1050
Weitere Unterschiede die aber noch nicht bestätigt wurden zwischen 360 und 380: Die Unterschiede sollen u.a. liegen bei: Shader-Einheiten (384 vs. 512), Shader-Takt (1500 vs. 1700 MHz), Speichergröße (1280 vs. 1536 MByte), Speicherschnittstelle (320 vs. 384 bit), Textur-Einheiten (96 vs. 128) und Rendering-Einheiten (40 vs. 48). Außerdem soll es noch Unterschiede bei den internen Cache-Größen und Gleitkomma-Einheiten geben.

Ergibt: 2x FMA pro Takt (2 Flop/Takt), 1400-1450 GFlops, 60-90 MT/sec, 190-230 GB/sec, 31200MPix/s

Mal schauen ob 2xGTX360 reichen werden oder ob ich doch zu 2xGTX380 greifen muß. Was auch interessant wird sind die neuen IQ Features auf die bin ich sehr gespannt. Es tut mir etwas leid um ATI die mit dem RV870 endlich wieder Boden gut gemacht haben im Bereich IQ nur das ihnen Nvidia wieder auf und davon eilt.

Naja ich freu mich auf meine neuen Karten, damit wird dann hoffentlich endlich mal 32xS Standard nicht nur in low res games ala Fallout 3 und co, sondern auch in Crysis und Konsorten.
Andererseits bin ich noch etwas am zweifeln aufgrund von DX11, da man durch die API auf die Devs angewiesen ist was IQ angeht und nicht mehr selber AA forcen kann im Treiber. Und so wie ich die meisten Devs kenne können wir froh sein über 8xQAA oder 8xMSAA. :(
Intel I5 2500k @ 4,7ghz, Noctua NH-D14, AsRock Extreme 4, 2x2gb DDR3 1600 Corsair, OCZ Vertex 2E 60gb, Crucial C300 128gb, Samsung Ecogreen F4 2000gb, Seasonic X-560 90 Gold semipassiv, NZXT Phantom schwarz, GeForce GTX560 POV Charged Edition @1ghz
[img]http://img688.imageshack.us/img688/8733/deusexsig.jpg[/img]
Benutzeravatar
PabloCHILE
Beiträge: 1187
Registriert: 10.10.2006 12:12
Persönliche Nachricht:

Beitrag von PabloCHILE »

wenn NVIDIA dann die " große " GTX380 und das auch nur dann wenn sie schreiben wir mal etwa 4-6 Monate auf dem" Buckel " Marckt hat, den gleich zum Release die Karte kaufen oh oh oh das wird teuer obwohl wenn ich gerade genug" Asche iner Tasche " habe........ :^^: jaja es ist schon schwer sich zurückzuhalten
Bild

http://www.youtube.com/user/PabloCHILE76?feature=mhee
Benutzeravatar
Phobo$
Beiträge: 3250
Registriert: 21.05.2007 13:01
Persönliche Nachricht:

Beitrag von Phobo$ »

Kephis hat geschrieben:Endlich kommt Fermi mal zumindest in Sicht, wenn auch wahrscheinlich nur die abgespeckte Version (448CC statt 512CC). Wird auch höchte Zeit für ne neue Gen da die aktuellen doch schon hart an ihren Grenzen angekommen sind.

Das sie schneller als die ATIs sein werden steht ja sowieso ausser Frage dazu muß man sich nur die Daten ansehen und etwas rechnen.

RV870:
DirectX 11, 1600 Shader-Einheiten, 80 TMUs, 32 ROPs, 256 Bit DDR Interface (bis GDDR5)

Ergibt: 1x MADD pro Takt (2 Flop/Takt), 2720 GFlops (Radeon HD 5870), 68 MT/sec (Radeon HD 5870), 154 GB/sec (Radeon HD 5870), 27200 MPix/s

GT200b:
DirectX 10, 240 Shader-Einheiten, 80 TMUs, 32 ROPs, 512 Bit DDR Interface (bis GDDR3)

Ergibt: 1x MADD + 1x MUL pro Takt (2+1 Flop/Takt), 1063 GFlops (GeForce GTX 285), 52 MT/sec (GeForce GTX 285), 159 GB/sec (GeForce GTX 285), 20736 MPix/s

GF100:
DirectX 11, 512 Shader-Einheiten (erste Version 448CC), 64 TMUs, 48 ROPs, 384 Bit DDR Interface (bis GDDR5), Takt (Kann sich ändern, geht auf A2 Tapeout zurück) GTX360 650/1500/1050 GTX380 650/1700/1050
Weitere Unterschiede die aber noch nicht bestätigt wurden zwischen 360 und 380: Die Unterschiede sollen u.a. liegen bei: Shader-Einheiten (384 vs. 512), Shader-Takt (1500 vs. 1700 MHz), Speichergröße (1280 vs. 1536 MByte), Speicherschnittstelle (320 vs. 384 bit), Textur-Einheiten (96 vs. 128) und Rendering-Einheiten (40 vs. 48). Außerdem soll es noch Unterschiede bei den internen Cache-Größen und Gleitkomma-Einheiten geben.

Ergibt: 2x FMA pro Takt (2 Flop/Takt), 1400-1450 GFlops, 60-90 MT/sec, 190-230 GB/sec, 31200MPix/s

Mal schauen ob 2xGTX360 reichen werden oder ob ich doch zu 2xGTX380 greifen muß. Was auch interessant wird sind die neuen IQ Features auf die bin ich sehr gespannt. Es tut mir etwas leid um ATI die mit dem RV870 endlich wieder Boden gut gemacht haben im Bereich IQ nur das ihnen Nvidia wieder auf und davon eilt.

Naja ich freu mich auf meine neuen Karten, damit wird dann hoffentlich endlich mal 32xS Standard nicht nur in low res games ala Fallout 3 und co, sondern auch in Crysis und Konsorten.
Andererseits bin ich noch etwas am zweifeln aufgrund von DX11, da man durch die API auf die Devs angewiesen ist was IQ angeht und nicht mehr selber AA forcen kann im Treiber. Und so wie ich die meisten Devs kenne können wir froh sein über 8xQAA oder 8xMSAA. :(

Bla bla bla Fanboygebrabbel.....

Aber von dir bin ich auch nichts anderes gewohnt.

@ andere

Takt kommt nicht von Tackern!!
Und Nvidia heißt nicht Nvidea

@topic

Zu allererst muss sich der Fermi beweisen, alles andere ist nur reine Spekulation. Denk mal an die HD2900XT. Auf dem Papier war diese dem G80 haushoch überlegen. Und die Realität hat wohl doch etwas anderes bewiesen.

Solange ich keine unabhängigen Benchmarks sehe, werde ich mir auch kein Urteil erlauben.
Benutzeravatar
PabloCHILE
Beiträge: 1187
Registriert: 10.10.2006 12:12
Persönliche Nachricht:

Beitrag von PabloCHILE »

^^^^ absolut :Daumenlinks:
Bild

http://www.youtube.com/user/PabloCHILE76?feature=mhee
Kephis
Beiträge: 391
Registriert: 12.06.2009 21:14
Persönliche Nachricht:

Beitrag von Kephis »

Phobo$ hat geschrieben: Bla bla bla Fanboygebrabbel.....

Aber von dir bin ich auch nichts anderes gewohnt.
Inwiefern Fanboy Gebrabbel? Habe ich Fehler in der Rechnung?
Oder habe ich nicht die Möglichkeit der Hybrid AA Modi auf GT200b oder jetzt GF100? Das hat wenig mit Fanboy zu tun imho da ich ja nur die bekannten Fakten nochmal aufgezählt habe und gegen übergestellt habe.
Die Sachen die Spekulation sind habe ich ja als solche gekennzeichnet.

Was das Beispiel R600 angeht, ich stimme nicht zu das der R600 dem G80 technisch irgendwie überlegen gewesen wäre, da war auch vorher absehbar das der G80 schneller sein wird nach dem die Daten bekannt waren. Natürlich wusste keiner wie sich die Skalareinheiten in der Praxis gegenüber den Vektor ALUs bewähren aber damit hatten ja R600 und G80 zu kämpfen. Also zusammenfassend ist von den technischen Daten her nie der R600 vor dem G80 gewesen, der ganze Buzz wurde nur von ATI Marketing und diversen Tech Sites geschürt als noch nicht alle relevanten Daten bekannt waren. Klar ein 512bittiges SI hört sich toll an auf dem Papier nur wenn der Chip dieses nicht bedienen kann nützt es null.
Übrigens hier nochmal die tech Daten von G80 und R600, da es ja schon ne Zeit her ist und manche vielleicht ne falsche erinnerung haben:
http://www.computerbase.de/artikel/hard ... sche_daten
tldr: G80 ist auf dem Papier eigentlich überall vor R600 ausser was SI angeht und die daraus resultierende Bandbreite.

Und was Fanboy angeht, die beste Karte ever imho ist der R580! Mir ist das so latte von wem der Chip kommt solange er das bietet was ich will kann von mir aus ALDI draufstehen. Die einzige Schmiede für die ich positive "Gefühle" hege ist 3dfx, aber auch hier eher aus nostalgie Gründen. Würde ATI endlich einen würdigen Nachfolger zum R580 oder R350 bringen und die IQ wieder auf den Level schrauben würde ich begeistert eine ATI kaufen.
Intel I5 2500k @ 4,7ghz, Noctua NH-D14, AsRock Extreme 4, 2x2gb DDR3 1600 Corsair, OCZ Vertex 2E 60gb, Crucial C300 128gb, Samsung Ecogreen F4 2000gb, Seasonic X-560 90 Gold semipassiv, NZXT Phantom schwarz, GeForce GTX560 POV Charged Edition @1ghz
[img]http://img688.imageshack.us/img688/8733/deusexsig.jpg[/img]
Benutzeravatar
The_Final
Beiträge: 349
Registriert: 18.01.2010 00:46
Persönliche Nachricht:

Beitrag von The_Final »

Oberdepp hat geschrieben: Blablabla, bei Crysis mindestens 30 FPS zu haben bei so einer hohen Auflsöung mit vierfachem Anti-Aliasing ist schlecht? Wie wäre es, wenn du mal etwas weiter denkst? Schön und gut, dass nach oben noch Luft ist, interessiert aber den Kunden nicht [...]
Da würden dir viele Egoshooter-Spieler aber etwas anderes sagen. ;) 40fps ist gerade in diesem Genre eher das untere Limit für eine spielbare Framerate. Außerdem, wie bereits erwähnt, können größere Monitore bis zu 2560*1600 darstellen, was sicher einige auch gerne nutzen würden. Zudem sprechen gerade die High-End-Karten vor allem die Enthusiasten an, und diese interessiert es sehr wohl, dass "nach oben noch Luft ist".
Antworten