Registrierung
leer
leer
newposts
Users
search
FAQ
Login
Start

Hallo Gast, und Willkommen im Forum. Sie müssen sich einloggen oder registrieren, um alle Funktionen nutzen zu können.


PN's Forum \ Computer \ Hardware \ Grafikkarten und Monitore \ ATI 2900XT vs Nvidia 8800GTX


Sharangir *

#1 Verfasst am 16.12.2008, um 19:13:31



ja, kommt halt ganz drauf an :D

Ich wurde vor einem jahr zum ATi-Jünger :D

Zuvor wollte ich ne 8800 Ultra und sah dann, dass meine 2900XT (1GB DDR4) die bessere Leistung bringt.. naja, tut sie auch und sie spielt jedes Game in max Details, bis Heute.. :D

Und wo ich nun weiss, dass ATi nvidia geschlagen hat, bleibe ich auch bei ihnen(4870X2 ist die UBER-Card derzeit und kostete Anfangs weniger wie die 280GTX :D

Greetz



User198

#2 Verfasst am 16.12.2008, um 19:23:39



die referenz-stars interessieren reichlich wenig. ich bin auch überzeugter ati und amd fan, von anfang an. (heute gibts ati ja so nichmehr). trotzdem will ich das maximum für mein geld haben, als schüler iss das nämlich ganz schön angespannt ;)



Joker (AC)

#3 Verfasst am 20.12.2008, um 13:11:35




Sharangir schrieb:
ja, kommt halt ganz drauf an :D

Ich wurde vor einem jahr zum ATi-Jünger :D

Zuvor wollte ich ne 8800 Ultra und sah dann, dass meine 2900XT (1GB DDR4) die bessere Leistung bringt.. naja, tut sie auch und sie spielt jedes Game in max Details, bis Heute.. :D

Und wo ich nun weiss, dass ATi nvidia geschlagen hat, bleibe ich auch bei ihnen(4870X2 ist die UBER-Card derzeit und kostete Anfangs weniger wie die 280GTX :D

Greetz



Sry für Offtopic....
http://www.pc-erfahrung.de/grafikkarte/vga-grafikrangliste.html
@Sharangir: Glaubst du das eigentlich, was du so schreibst?

Sharangir schrieb:
.....Meine HD2900 schlägt da die 8800Ultra auch um Längen ......:D


http://www.pc-erfahrung.de/grafikkarte/vga-grafi...d-2900-r600.html
...einfach mal lesen- und das ist ein Vergleich zur GTX (nicht Ultra)


Richtig, die Dual-Karten haben physisch mehr FPS.....das Microruckeln versaut dir die Performance wieder.
(Und nein- das ist noch nicht beseitigt)



Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 20.12.2008, um: 13:21:57


Sharangir *

#4 Verfasst am 24.12.2008, um 14:37:22



Joker, die Benchmarks sind uralt ;)

Du darfst nicht vergessen, dass die 8800er damals schon über ein halbes Jahr auf dem Markt waren und die HD2900XT erst gerade veröffentlicht wurde!

Bis Weihnachten 2007 wurde die Performance der HD2900XT um fast 50% gesteigert und wenn ich 3DMark06 nun so anschaue, dann tun mir die Besitzer der überteuerten 8800Ultra einfach nur leid :D


Greetz



Joker (AC)

#5 Verfasst am 24.12.2008, um 15:18:49



Es langweilt mich langsam ein bisschen-
Glaubst du, Nvidia pennt?
OK....Sag mir einen Bench an.....ich mit GTX- du bit deiner göttlichen 2900. Wenn geht, nur amtliches...
Farcry, Crysis, diverse Benches (natürlich Screens) Auflösung bis 1280X1024 (hab ja nur 18")

http://www.computerbase.de/artikel/hardware/graf...schnitt_3dmark06
http://www.computerbase.de/artikel/hardware/graf...schnitt_3dmark05
http://www.computerbase.de/artikel/hardware/graf...chnitt_anno_1701
http://www.computerbase.de/artikel/hardware/graf...t_call_of_duty_2
http://www.computerbase.de/artikel/hardware/graf...t_call_of_juarez
http://www.computerbase.de/artikel/hardware/graf...ompany_of_heroes
Zusammenfassung:
http://www.computerbase.de/artikel/hardware/graf...erformancerating
http://www.hardware-mag.de/artikel/grafikkarten/...rce_8800_gts/16/
Die 512er 2900XT hatte 400 gekostet (GTX war da schon billiger)

HD 2900XT vs GTS 640 (HW-Luxx User)
http://www.forumdeluxx.de/forum/showthread.php?t=392734
Nochmal....HD vs Ultra u GTX (gähn)
http://www.hardware-infos.com/tests.php?test=29&seite=11
Was hatte die 1024 XTX nochmal gekostet?


Sharangir schrieb:
Joker, die Benchmarks sind uralt ;)

Du darfst nicht vergessen, dass die 8800er damals schon über ein halbes Jahr auf dem Markt waren und die HD2900XT erst gerade veröffentlicht wurde!

Bis Weihnachten 2007 wurde die Performance der HD2900XT um fast 50 % gesteigert und wenn ich 3DMark06 nun so anschaue, dann tun mir die Besitzer der überteuerten 8800Ultra einfach nur leid :D


Greetz



Hm- dh, du hast diePerformance verdoppelt? Crysis @ Ultra bei > 40FPS ? Mehr als die 2800GTX also????


Ich fang mal an mit X3 Demo (google)


Optimierung beide aus- 1280X1024 ohne AA/AF




Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 24.12.2008, um: 15:25:08


Sharangir *

#6 Verfasst am 24.12.2008, um 15:48:57



Crysis @ Ultra bei um die 40fps, wenn ich mich recht erinnere, aber teste das Heute Abend gerne mal für dich :D

in 1440x900 spiele ich und teste ich auch!


Greetz



 Poison Nuke 

#7 Verfasst am 24.12.2008, um 19:09:08



hab euch mal nen eigenen Thread gemacht:prost



@ Sharangir.

ein Bench bringt nur was, wenn ihr bei gleicher Auflösung vergleicht :.

also dann mal los, bin jetzt auch gespannt, ob du deine Behauptung halten kannst.


greetz
Poison Nuke

Sharangir *

#8 Verfasst am 25.12.2008, um 00:32:28



Hier habe ich mal den ersten Benchmark gemacht..

Farcry 2 hat nicht starten wollen.. die Einstellungen für diesen Bench stehen aber trotzdem fest!

Furmark zeigt an, welches das Setup meines Rechners ist..








Wenn ich also den FC2-Bench noch zum Laufen bringe, is gut.. sonst schau ich mal nach dem Crysis-Bench :D



Sharangir *

#9 Verfasst am 25.12.2008, um 01:14:15



Hmm.. weiss jetzt nicht, ob das besonders gut ist, oder so.. FC2 mit Patch 1.02 draufgemacht, Ranch Small und ohne AA/AF...

Crysis kann ich erst Benchen, wenn ich den Patch aufspielen konnte..





PS: natürlich alles auf Vista 32bit unter Direct X10 :D

und ich spiele NUR auf Ultra, die AA/AF muss ich meist weglassen... (dann doch zu schlechte Card)


Greetz



Joker (AC)

#10 Verfasst am 25.12.2008, um 08:37:57



Soooo- erstmal Screen

AVG 45,9 FPS

Jetzt muss man wissen, das FarCry2 eins der wenigen Games ist, die auf Wizda besser skallieren (noch nen Punkt für 8800GTX. Die 2. Anmerkung ist, das die Auflösungen nicht gerecht sind. 1440X900= 1296000 Bildpunkte. (bei gleicher Farbtiefe)....bei mit 1280X1024=1310720
Nich das einer glaubt, meine Auflösung wäre einfacher zu bewältigen









Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

Sharangir *

#11 Verfasst am 25.12.2008, um 11:20:32



aah.. nu seh ich's erst, du hast ja unter XP getestet :D

Hab's leider unter XP nicht installiert, für nen Bench, aber das habe ich auch gelesen, dass Vista schnellr rennt ;)

Meine Karte kostete übrigens vor 13 Monaten 450€, ebenso die 8800GTX und die Ultra war bei 650€ rum zu haben!


3Dmark06 lass' ich gleich laufen :D



Sharangir *

#12 Verfasst am 25.12.2008, um 13:03:47



Was mich ein wenig frustriert, ist die Tatsache, dass meine Grafikkarte knapp an der OBERSTEN Grenze läuft..

GPU-Takt: 848MHz (bei 700MHz Boxed)
VRAM-Takt: 2280MHz (bei 2000MHz Boxed)


und ATi-Overdrive lässt maximal 858MHz, respektive 2306MHz zu..
Die Temperatur geht noch immer nicht über 50°C rauf...

Von so einem Takt kann jede Geforce nur träumen.. ebenso von 512bit Speicheranbindung und 320 Shader-Einheiten.. aber die dämlichen Spieleentwickler kümmern sich immer nur um nVidia und nie um ATi!!!


Rein von en technischen Daten her ist die ATi den Geforce-Karten in 9/10 überlegen und sollte daher viel leistungsfähiger sien, wenn nur nicht auf jedem Game stehen würde:
"nvidia, the way it's meant to be played"
(Ich habe hier Far Cry 2, Crysis, Bioshock und FEAR vor mir liegen und überall ist dieses Siegel drauf... logisch, dass nVidia da besser laufen sollte...)


Greetz



Sharangir *

#13 Verfasst am 25.12.2008, um 13:24:19



Seltsamerweise hat 3D-Mark nur mit dem IDLE-Takt gespielt.. früher hatte ich locker 12k Punkte und nun sowas.. :D

Wenn du mir sagen kannst, wie ich die Karte dazu bringe, für 3D-Mark den vollen Takt aufzufahren, wäre ich froh :D


Greetz











Joker (AC)

#14 Verfasst am 25.12.2008, um 19:07:03



Den Gesammtscore darf man nicht überbewerten- hab ja Quad.....
SM 2.0/3.0 ist interessanter....

Aso- mit 3,6 gebencht....der erkennt nicht den herabgesetzten Multi.





Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 25.12.2008, um: 19:08:18


 Poison Nuke 

#15 Verfasst am 25.12.2008, um 19:33:54



Joker, sag du mal was dazu...eine 9600GT sollte doch theoretisch weitaus höhere Punktzahlen erzielen bei SM2 und SM3, oder?





greetz
Poison Nuke

Joker (AC)

#16 Verfasst am 25.12.2008, um 21:04:04



Aubacke- erst Onkel Joker fragen....dann kaufen
Sooooo alt ist die nicht....hat so zwischen 110 und 140 gekostet(?)
Hättest besser zum alten Modell gegriffen:
http://geizhals.at/deutschland/a291598.html (8800GT)
oder die GTS (512)
http://geizhals.at/deutschland/a300455.html
Die lahmt wegen 64 Shader Einheiten (statt 112/128)

- Du kannst versuchen die Shader zu Ocen (Riva)- ansich ist der Score soweit OK. (Erklärung mit Shader steht ja oben)


-----------------------------------------------------------------------------------------------

http://forum.poisonnuke.de/index.php?action=ViewThread&TID=1855
---->

Poison Nuke schrieb:
die 9600GT ist laut Testberichten usw DEUTLICH besser als die Vorgängerserie und sogar teilweise besser als die 8800GTX.



Der Nächste, oder wie?

Nichtniemals 8800mit 8500/8600/9500/9600 verwechseln (!)
8800GTX=128Shader@1350MHz, ROPs: 24, Speicherbus: 384-bit
9600 (GT usw) ROPs:16 (9600 GSO 12) Speicherbus: 256-bit
....oder du hattest Tripple 9600 SLI gesehen?

GPU-z steht auf 16X ?





Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke 

#17 Verfasst am 25.12.2008, um 22:59:21



ich hatte ja beim herauskommen bei THG und ein paar anderen Seiten Testberichte gelesen, wie die 9600 teilweise doppelt so schnell sein soll wie die 8600 und wie sie sogar auf einem Level mit der 8800 gelegen haben soll, welche genau müsste ich nochmal suchen...zumindest wegen dieser überschwänglichen Tests und weil sie nich so viel Saft brauch, hab ich sie genommen.


Aber ich habe bei ORB mir mal so einige Statistiken von der 9600GT zeigen lassen und ich liege überall deutlichst drunter auch unterhalb denen der 8800 und das kann ja nicht sein laut dem was ich so alles von der gelesen habe und was die Stats bei ORB zeigen :Y





vorallem dass sie beim Cinebench so schlecht ist...gerade mal 2400pkt, deine Karte hatte da fast 7000 8o


greetz
Poison Nuke

Joker (AC)

#18 Verfasst am 25.12.2008, um 23:12:04



Ausgerechnet THG hatte ja reichkich OC ....
http://www.tomshardware.com/de/9600-GT-GeForce-X...e-239968-13.html
und im ORB erkennst du nicht, ob es SLI ist
http://www.computerbase.de/artikel/hardware/graf...schnitt_3dmark06

Hatte ich schonmal erzählt, das ich für dei 2. GTX 125 bezahlt hab?
(duck u wegrenn )



Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 25.12.2008, um: 23:13:39


 Poison Nuke 

#19 Verfasst am 25.12.2008, um 23:22:17



und wieviel Strom schluckt deine GTX? Am Ende vom nächsten Jahr vergleichen wir mal die Stromrechnung:P
Weil ich lass zwei von den Teilen beim mir laufen und da verdoppelt sich der Stromverbrauch ja nochmal locker.


ok also steckt in meiner Karte also halt ein wenig Übertaktungspotential. Aber dennoch sind die Scores bei computerbase ganz schön hoch...selbst wenn ich noch 2500-3000 Punkte für die CPU dazurechne, liege ich immernoch ne ganze Ecke unter den Resultaten da.


Obwohl mich eher Cinebench aufregt. Gerade dafür brauch ich die Karte primär und im C4D Forum meinte man auch, dass es gegenüber meiner 8500GT schon ein guter Sprung sein sollte...
naja, von dem merk ich bisher halt nix :L


greetz
Poison Nuke

Joker (AC)

#20 Verfasst am 25.12.2008, um 23:28:01




Poison Nuke schrieb:
und wieviel Strom schluckt deine GTX? Am Ende vom nächsten Jahr vergleichen wir mal die Stromrechnung:P



......sagt mir der Typ mit 8X18" sammt Amp`s


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 25.12.2008, um: 23:29:17


 Poison Nuke 

#21 Verfasst am 25.12.2008, um 23:52:34



das DBA braucht effektiv weniger Strom als eine 8800GTX OC :P
laut meinem Strommessgerät ist mein PC hier mit Abstand das schlimmste (450W PC mit Monis dauerhaft gegen 320W Ruhestrom der kompletten Anlage)



aber deiner Meinung nach ist die Leistung meiner Karte ok :?
also ich weiß nicht, irgendwie stört mich das schon, dass ich teilweise weitab von den Punktzahlen anderer mit dieser oder ähnlichen Karten bin.


greetz
Poison Nuke

Joker (AC)

#22 Verfasst am 26.12.2008, um 08:52:04



Eigentlich ist das OK (klar....könnte besser sein)
PC`s sind halt nicht vergleichbar-
Wenn du dir Benchmarks anschaust....und hast selber einen PC der für deine Person alltags tauglich ist (deine CAD Progs, Steuerrungen, Mesenger, usw-usw..... und siehst die Leistungen von auf Games optimierte Maschinen, kann das frusten. Kenne jetzt die Zusammenstellungen nicht....Opteron, zuviel Speicher (man soll es kaum glauben!) mehrere Raid, Vista 64....all das ist nicht so hilfreich.
8200PT vs 9700PT (das Pic mit den 9600) ist erklärbar.
Was mich ehr jucken würde, ist dein 2433Pt CPU-Score. (kann ja wohl nicht, das ein C2D da schneller ist?- hast du nicht 2X 4kerne???)



Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke 

#23 Verfasst am 26.12.2008, um 09:28:37



warum, die CPU Score passt doch. Sind doch nur 2 GHz...du hast 4x 4GHz und kommst auf etwas mehr als die doppelte Punktzahl und da die AMD Kerne eh nich so schnell sind, wie wir in anderen Benches gesehen haben, passt das doch.


mich juckt primär, dass du bei Cinebench fast 7000 Pkt bei OpenGL hast und ich gerad mal über 2000 komme. Das ist ein zu extremer Unterschied finde ich.


greetz
Poison Nuke

Joker (AC)

#24 Verfasst am 26.12.2008, um 09:40:07



Vielleicht machen sich da die 384Bit bemerkbar? Ich weiß nicht....ich such mal was...sekunde

Edit: GL scheint nicht die Stärke der 9600er zu sein- hab mal die CB Benches im 3Dcenter nachgeschaut. Man sieht auch eine "Relation" zwischen CPU-Power....und VGA Score. Eine 9600 scheint mit E/Q @3,6 schon lange am Limit -
eine 2600GTX an C2D def. bringt auch kaum VGA-Punkte.
Gute Werte sind Q@3,6....und mehr+ 8800GT reichlich geOCt. (bzw E8500@4500^^)


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 26.12.2008, um: 09:56:28


Sharangir *

#25 Verfasst am 26.12.2008, um 18:38:02



Poison, nicht traurig sein, solange du happy bist, mit deiner Karte (wie ich mit meiner ja auch) ist doch alles in Butter :D


Joker, bedenke, dass meine Karte mit 500/500MHz getaktet war, für 3DMark06 :D

Habe sie mit dem normalen Takt nochmal rangeschickt.. aber da lief Canyon Flight nie durch.. immer ein Freeze.. obwohl FC2, Furmark und der Crysis-Bench (kommt, sobald ich Crysis gepatcht habe) ohne Probs und ohne Artefakte liefen...

woran könnte das liegen?!

Greetz



 Poison Nuke 

#26 Verfasst am 26.12.2008, um 18:59:04




Sharangir schrieb:
Poison, nicht traurig sein, solange du happy bist, mit deiner Karte (wie ich mit meiner ja auch) ist doch alles in Butter :D



wie sollte ich happy sein, wenn sie 3x weniger Punkte wie die 8800GT bekommt, obwohl sie laut Benches fast gleichauf mit dieser liegen sollte
und SLI könnte ich zwar aktivieren, aber dann hab ich nur noch 2 Monitore :Y


greetz
Poison Nuke

sleepy

#27 Verfasst am 27.12.2008, um 10:14:52



nix gegen sich poison aber wiso nur 2?

mit sli gehen 4


www.sleepy123.wg.vu

Meine Homepage

bearbeitet von sleepy, am 27.12.2008, um: 10:15:24


 Poison Nuke 

#28 Verfasst am 27.12.2008, um 10:23:08



na klar... :.
zeig erstmal das Mainboard und den Chipsatz, der 4x PCIe x16 hat. Außer im Serverbereich gibt es sowas noch nichtmal. Und an die Stromrechnung denkt ihr auch noch oder :L



greetz
Poison Nuke

sleepy

#29 Verfasst am 27.12.2008, um 10:48:30



warum jede grafikkaqrte hat 2 dvi anschlüsse ergo 4 monitore


www.sleepy123.wg.vu

Meine Homepage

 Poison Nuke 

#30 Verfasst am 27.12.2008, um 10:56:40



was hat das mit SLI zu tun.
Bei QuadSLI hat man 4 Grafikkarten, die aber wie eine arbeiten. Also von 8 DVI Ausgängen wären dann nur noch 2 nutzbar. Da mein Mainboard wie so fast alle anderen auch nur 2x PCIe x16 hat, kann ich eh nur 2 Grafikkarten reinstecken und das ist ja der Fall...aber SLI kann ich deshalb immernoch nicht aktivieren, weil dann könnte ich keine 4 Monitore mehr anschließen...soweit klar? 8)


greetz
Poison Nuke

sleepy

#31 Verfasst am 27.12.2008, um 11:02:43



leider liegst su da nicht ganz richtig man kann 4 monitore an ein sli gespann anschließen,

such grad die seite wo erklärt wird wies geht


www.sleepy123.wg.vu

Meine Homepage

 Poison Nuke 

#32 Verfasst am 27.12.2008, um 11:20:10



demnach wäre es also möglich, auf einem Monitor die Rechenpower von SLI zu nutzen, ohne auf die Anschlussmöglichkeit von 4 Monitoren zu verzichten? Wenn das geht, wäre das nat. echt genial. Ich kenn SLI bisher nur so, dass die zweite Grafikkarte dann halt quasi einfach nur die erste "verstärkt", sie aber nicht als einzelne zu sehen ist...wie ein RAID0 bei Festplatten halt.


aber ein QuadSLI ists deswegen immmernoch nicht 8)
dafür fehlen ganz einfach noch die Mainboards.


greetz
Poison Nuke

sleepy

#33 Verfasst am 27.12.2008, um 11:36:58



tja von quad sli war nie die rede, das einzige was gehen würde wäre quad crossfire, ati


www.sleepy123.wg.vu

Meine Homepage

 Poison Nuke 

#34 Verfasst am 27.12.2008, um 13:10:50



also laut der offiziellen FAQ von nVidia ist im SLI Betrieb nur ein einziger Monitor möglich...nichtmal zwei Monitore werden unterstützt. Man muss SLI deaktivieren, dann kann man alle Monitorausgänge nutzen.


greetz
Poison Nuke

sleepy

#35 Verfasst am 27.12.2008, um 13:16:29



naja ich finds bild und den text net. war auch ein modifizierter treiber aber es ging oder geht noch


www.sleepy123.wg.vu

Meine Homepage

Joker (AC)

#36 Verfasst am 27.12.2008, um 19:05:45



http://en.expreview.com/2008/10/21/nvidia-explains-multi-monitor-sli.html


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke 

#37 Verfasst am 27.12.2008, um 19:40:49



danke für den Link :prost

aber das was ich mir dann weiter oben vorgestellt hatte, geht dann also auch nicht, man hat lediglich den zweiten Monitor dann endlich. und da ich nur ein normales SLI Mainboard habe, wirds mit Triple SLI auch nix, obwohl es an den Grafikkarten nicht gescheitert wäre, hatte nämlich zuerst 3 statt 2 bestellt :X:D




greetz
Poison Nuke

Joker (AC)

#38 Verfasst am 27.12.2008, um 20:37:04



Es gibt noch eine Moni-Box von Matrox.....die kann so zimlich alles auf bis zu 3 Schirmen teilen (net ganz billig)....und was die genau kann, musst du mal suchen(?)


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke 

#39 Verfasst am 27.12.2008, um 22:13:21



warum soviel Aufwand :?
ich will doch einfach nur 4 Monitore anschließen...kann halt bloß kein SLI dann machen. Und wenn ich nur spielen will, kann ich ja auch einfach die anderen 3 Monitore abschalten und dann SLI aktivieren, ist ja scheinbar nur ein kleiner Schalter im Menü. 8)


greetz
Poison Nuke

Joker (AC)

#40 Verfasst am 27.12.2008, um 22:46:40



Warum fragst du dann?


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke 

#41 Verfasst am 27.12.2008, um 22:51:00



sleepy hat das ganze "ins Leben gerufen", ich hatte nur gemeint, dass ich zwar SLI bei mir aktivieren könnte, um etwas mehr Performance zu bekommen, dafür aber auf die 4 Monitore verzichten müsste und damit gab ich mich ja eigentlich zufrieden.

Obwohl es mich halt noch aufregt, dass im Cinebench nur mickrige 2000pkt rauskommen, bei dir aber über 3x so viele :Y
ob das wirklich nur an den RoPs und der Speicherbandbreite liegt, wenn sonst die Benchmarks von der Karte teilweise fast an deiner dran liegen und das ohne OC? Irgendwas stimmt in meinem System halt nicht...nur was


greetz
Poison Nuke

 Poison Nuke 

#42 Verfasst am 28.12.2008, um 10:51:03



ahaa...das scheint ein Bug vom Cinebench zu sein. Der kommt mit Mehrkernsystemen nicht so gut zurecht. Zwei andere haben das gerade getestet und kamen mit der 9600GT auch auf ca. 6000pkt also doch gar nicht so schlecht =)
nur bei mir hängt sich das Bench jetzt sogar die ganze Zeit auf...arg :L


greetz
Poison Nuke

Sharangir *

#43 Verfasst am 30.12.2008, um 22:05:06



cinebench.. muss ich mir auch mal holen..

;)

ps: hier gehts um 2900XT vs 8800GTX! *hust*



 Poison Nuke 

#44 Verfasst am 30.12.2008, um 22:19:04



lass mich doch auch mal OT machen8)

oder ich ändere einfach den Threadtitel :twisted


greetz
Poison Nuke

Joker (AC)

#45 Verfasst am 09.02.2009, um 08:39:23



Alte Topic mal aufwärmen
Die PCGHW hat einige Generationen Grakas nachgetestet.....
Unteranderem HD 2900XT vs 8800 Ultra
http://www.pcgameshardware.de/aid,674689/Sechs_G...rte/Test/?page=1

Die 2900 hatte bei Markteinführung abgeloost- und auch jetzt....mit aktuellen Treibern.


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

KuschelTiga

#46 Verfasst am 09.02.2009, um 09:46:59




Joker (AC) schrieb:

Die 2900 hatte bei Markteinführung abgeloost- und auch jetzt....mit aktuellen Treibern.


Sei doch nicht so gemein^^
Hab was gefunden, was die Ati besser kann:
ATi Radeon HD 2900 XT 356
nVidia GeForce 8800 Ultra 325



 Poison Nuke 

#47 Verfasst am 09.02.2009, um 10:00:07



welches Bench ist das und für was stehen die Werte?

Obwohl ich mich schon frage, warum ide 2900 so abloost, weil die technischen Parameter sind ja schon alles andere als schlecht. Die ist ja stellenweise auf Ebene der 9800, rein von der Speicherbandbreite, den Unified Shaders usw...wo liegt der Haken, dass sie trotzdem viel langsamer ist?


greetz
Poison Nuke

KuschelTiga

#48 Verfasst am 09.02.2009, um 10:13:48



Das ist die Stromaufnahme unter Volllast
Aber bevor Sharangir das wieder als Rechtfertigung für sein 900Watt Netzteil interpretiert, der Wert ist inklusive übertaktetem Core2Extreme. Meine Grafikkarte kommt da auch schon über die 300Watt Marke. Aber in meinem Rechner schaffe ich unter Vollast gerade "mal" 200...

edit: Das wird wohl immer so weiter gehen. Die Karten haben gut Potential, die Treiber vernichten es wieder (gibt heute noch keinen Treiber, der absolut reibungslos mit der x1950xt funktioniert^^). Wäre bei Ati nicht die Leistungsaufnahme im Idle geringer, würde ich schon wegen der Treiber zu NVidia greifen^^


bearbeitet von KuschelTiga, am 09.02.2009, um: 10:15:39


Sharangir *

#49 Verfasst am 09.02.2009, um 15:32:02



Hehe :p :p :p

Die HD2900XT ist rein von der technischen Spezifikation noch immer eine der stärksten karten auf dem Markt.. aber irgend ein Penner kann das einfach nicht umsetzen...

Ausserdem werden Computerspiele auf die am Markt vorherrschende Marke optimiert: nVidia..
denn nVidia steht auf JEDEM meiner Computer-Games drauf... das kotzt mich so derbe an!!!


Im 3D Mark06 habe ich übrigens 12'500 Punkte erreicht, bereits vor EINEM jahr, mit meinem C2D E6750@3,2GHz :p
Aber ich habe ja auch die 1024MB-Variante und nicht die 512er!



Es erstaunt mich aber, dass die bei Crysis immer so schlecht abschneiden.. mache Heute Abend nochmal nen benchmark (falls ich ENDLICH die Patches finde.. (Habe nen RIP, weil meine AT Collector's Edition, die mich 70€ kostete, nicht gelesen werden kann.. HAHAHA!)
Im normalen hatte ich unter ULTRA high auf DX10.0 jeweils über DREISSIG fps... in den tests schafft sie das noch immer nicht???



KuschelTiga

#50 Verfasst am 09.02.2009, um 15:33:57



AA/AF....Das kann die 2900XT eben gar nicht. Das sieht man dann in den Test ganz deutlich^^



Sharangir *

#51 Verfasst am 09.02.2009, um 15:34:59



doch, klar ;)
24 x AA und 16 x AF.. seltsamerweise läuft dann aber KEIN game mehr flüssig...
warum die der Karte diese Eigenschaft gaben, sie aber dennoch nie optimiert haben, verstehe wer will...



KuschelTiga

#52 Verfasst am 09.02.2009, um 15:41:01



Tut mir leid, aber ich weiß von keiner Karte, die mit AA so starke Einbrüche hat, wie die 2900xt.

2900xt und 24AA? Is ja wie n Trabbi mit 400km/h Tachoscheibe^^.



Sharangir *

#53 Verfasst am 09.02.2009, um 15:43:54



Jo, sage ich ja :D

Ich kann das auswählen, aber dann läuft's nimmer :)

Von daher kann ich nicht beurteilen, wie viel AA bringen täte :)

Sagte ja auch:
Die Karte hat eine der besten technischen Spezifikationen, aber niemand hat das je ausgenutzt oder optimiert, damit man davon profitieren kann...


Und da meine HD2900XT um 10% OCed ist, braucht sie sicher noch mehr Saft :D




Aber die benchmarks lassen mich guten Gewissens, dass 2 4870X2 als nächste karten wohl doch gut gehen :D
in einem jahr sind die Treiber ausgereift und Quad X-Fi für 200€ ist tragbar :D


Grüsse



KuschelTiga

#54 Verfasst am 09.02.2009, um 16:14:37



Wer weiß, ob sich bei AMD in einem Jahr noch um Treiber für ne Karte aus der 4er Reihe schert. Kanns mir bei denen kaum vorstellen, wenn ich ehrlich bin^^.
Wenn man den Stromverbrauch mit einbezieht, dann ist die 2900xt aus technischer Sicht nicht mehr ganz so doll. Jeder muss eben seine Prioritäten selber setzen. Bei Grafikkarten interessiert mich kein "könnte", "müsste", "sollte", "wird". Da interessiert mich nur, dass die flott, stabil, fehlerfrei, günstig und energieeffizient ihre Arbeit macht. Was sie könnte, wenn irgendwas anders wäre zählt da nicht. Zur Zeit wäre das eventuell die 4830, obwohl ich von Ati eigentlich die Schnautze voll habe... Würde NVidia den Idleverbrauch senken, dann müsste ich nicht lange überlegen*gg*



sleepy

#55 Verfasst am 09.02.2009, um 17:20:28



die 2900 ist nur auf dem blatt gut, die besten specks, ne also.

nur weil sie 1024mb und ein 512 bit interface hat, dass hat nix zu sagen, aber ich halt mich raus aber das musste einfach raus


www.sleepy123.wg.vu

Meine Homepage

 Poison Nuke 

#56 Verfasst am 09.02.2009, um 17:59:22



ist ja nicht nur der RAM, auch die Shaderanzahl, die ROPs usw usw.
Ja ok, ein Northwood hatte auf dem Blatt auch gute Werte...nur bei ATI hatte sich doch an der grundlegenden Architektur nicht viel geändert sei der 2900xt, oder?



greetz
Poison Nuke

Joker (AC)

#57 Verfasst am 09.02.2009, um 18:35:59




Sharangir schrieb:
Die HD2900XT ist rein von der technischen Spezifikation noch immer eine der stärksten karten auf dem Markt.. aber irgend ein Penner kann das einfach nicht umsetzen...


Ist da jetzt PCGHW/3D-Center mit gemeint, oder ich?

Zitat 3dCenter:
"Die PC Games Hardware hat sich die HighEnd-Modelle der letzten sechs Grafikkarten-Generationen im Vergleich angesehen, dabei ging man zurück bis zu den Grafikkarten des Jahres 2004. Diese Grafikkarten haben zwar heutzutage kaum noch eine Chance, aber zumindest lassen sich einige Rückschlüsse darauf ziehen, welche Modelle noch mit am längsten durchgehalten haben. Sehr deutlich ist dabei, daß zwischen GeForce 6800 Ultra und Radeon X850 XT-PE sowie zwischen GeForce 7900 GTX und Radeon X1950 XTX jeweils die ATI-Modelle die besseren Ergebnisse zeigen, während dagegen die GeForce 8800 Ultra ebenso klar vor der Radeon HD 2900 XT liegt.
.......
Hier zeigen sich nachträglich noch einmal die von den jeweiligen Chip-Entwicklern gefahrenen Entwicklungsstrategien: ATI setzte schon frühzeitig auf die Karte der möglichst hohen Rechenleistung, während bei nVidia noch lange die "alten" Werte wie Texturierpower und Speicherbandbreite im Vordergrund standen. Dies führte dann dazu, daß primär bei den Karten der Jahre 2004 und 2005 die ATI-Modelle mit der Zeit relativ gesehen immer besser wurden – sprich, länger mit neueren Spielen durchgehalten haben. Durch die GeForce-8/9-Serie der Jahre 2006 und 2007 wird dieses Bild erst einmal ein wenig durcheinandergewirbelt, weil diese Karten gegenüber den seinerzeitigen ATI-Angeboten (Radeon HD 2000 und 3000 Serien) schon rein Hardware-technisch überlegen waren.

Trotzdem kann man nVidia bis einschließlich der GeForce9-Serie immer noch einen gewissen Hang zu relativ gesehen niedrigerer Shader-Power und dafür hoher Texturierpower und großer Speicherbandbreite nachsagen. Als Extrembeispiel hierfür kann man die Mainstream-Lösung GeForce 9600 GT anführen, welche für eine Mainstream-Karte über eine ausgesprochen hohe Texturierpower und ebenso hohe Speicherbandbreite verfügt, bei der Shader-Power aber mehr als deutlich hinter beispielsweise einer Radeon HD 4670 zurückliegt (HD4670: 480 GFlops, 9600GT: 312 GFlops) – und dies, obwohl die nVidia-Karte in diesem Vergleich ja letztlich sogar noch die bessere Gesamtperformance zeigt."
Zitat Ende

Wo siehst du den Technologiefortschritt vs Nvidia?


Ich hatte mich seinerzeit für die 2900Pro (1024) interessiert- der einzige Unterschied war der Takt ;-)
(wäre billig so an eine XT zu kommen)
Hatte mich nach 4 (!) Wochen lesen (HW-Luxx) und User-Ingamebenchmarks doch für gut OCbare GTX entschieden.
(ist ne billige Über-Ultra gewesen )

Die AF Qualität der ATI (AMD) ist seid X800XT extrem zurückgegangen (ein Schelm, der dabei böses denkt)
Nvidia hatte sowas bei der 5900Ultra auch drauf^^ (und alle brüllten Cheater)
Nicht das man denkt, ich hab ein Nvidia-Tattoo auf`m Popo-
9800Pro/XT, X800/X850XT, X1950Pro hatte ich früher in den Rechnern (aber auch 4600,5900U,6800GT/Ultra, 8800GTS -
bis jetzt GTX)






Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 09.02.2009, um: 18:42:16


Sharangir *

#58 Verfasst am 10.02.2009, um 10:55:14



Joker...

ich sagte, laut den TECHNISCHEN Spezifikationen!

Die kannst du auf jeder Games Hardware-blubb-Homepage nachlesen!

Wie Poison weiter oben bestätigt hat, ist die 2900 XT auf dem PAPIER eine der stärksten karten überhaupt!

Aber Ati kann das nicht umsetzen.. Warum die das nicht im Stande sind, weiss ich nicht...

Aber nun, nach anderthalb jahren , bekomme ich ja immer noch neue Treiber nachgereicht, auch wenn die Performance nimmer steigt :D

Wenn die die 4870X2 so weit mit Treibern ausstatten, dass ein CrossfireX stabil läuft, ist das okay!




Kuscheltiga..
ich will nicht auf den Stromverbrauch achten müssen..
ich will bei nem Auto auch nicht auf den Benzinverbrauch achten müssen..

für mich zählt Leistung (und das versprach die ATi halt auf dem Papier, wie keine andere jemals zuvor.. ) und mehr nicht!

Ich lebe so, dass es halt einfach für hohe Sprit-Kosten und hohen Strombedarf reichen muss.. dafür gehe ich mich nicht jedes Weekend besauffen und nenne das dann "public relations".. haha :D




Joker, ich habe nicht dich gemeint und auch kein Magazin, sondern die Penner bei Ati, die diese Spezifikationen nicht nutzen können :D



KuschelTiga

#59 Verfasst am 10.02.2009, um 11:52:22



Du verstehst mich falsch, bin kein Öko. Aber warum sollte man nutzlos Energie verschwenden? Fährst Du auch die ganze Zeit im ersten Gang mit maxrpm, weil du zu faul bist zu schalten? Wenn du nen Gang hoch schaltest, dann kannst du sogar schneller fahren - mit weniger Sprit^^. Warum sollte man ne Karte nutzen, die 200Watt für das braucht, wenns ne andere mit 60 genausogut hinbekommt?

Ich bin mal gespannt, wann Ati mal ne leistungsfähige Karte bringt, bei der es keine Schwierigkeiten mit dem Treiber (und dem CCC) gibt^^



Sharangir *

#60 Verfasst am 10.02.2009, um 11:53:45



darauf bin ich auch gespannt, aber ich hoffe weiterhin, dass die in nem Jahr die 4870X2 für X-FireX ready haben ;)

derzeit schneidet die 4870X2 ja sogar vor der GTX295 ab, in manchen Benches :)



Joker (AC)

#61 Verfasst am 13.02.2009, um 22:24:47




Sharangir schrieb:
Joker...

ich sagte, laut den TECHNISCHEN Spezifikationen!

Die kannst du auf jeder Games Hardware-blubb-Homepage nachlesen!

Wie Poison weiter oben bestätigt hat, ist die 2900 XT auf dem PAPIER eine der stärksten karten überhaupt!
Wenn Poisen das sagt, muss es ja stimmen^^

Aber Ati kann das nicht umsetzen.. Warum die das nicht im Stande sind, weiss ich nicht...
Auf nen Panda ZR Bereifung macht den nich schneller

Aber nun, nach anderthalb jahren , bekomme ich ja immer noch neue Treiber nachgereicht, auch wenn die Performance nimmer steigt :D
Das macht Nvidia anders----> "BigBang Treiber" zB oder die AGEIA PhysX Unterstützung

Wenn die die 4870X2 so weit mit Treibern ausstatten, dass ein CrossfireX stabil läuft, ist das okay!




Kuscheltiga..
ich will nicht auf den Stromverbrauch achten müssen..
ich will bei nem Auto auch nicht auf den Benzinverbrauch achten müssen..

für mich zählt Leistung (und das versprach die ATi halt auf dem Papier, wie keine andere jemals zuvor.. ) und mehr nicht!
Das ist ja legitim- aber das Ultra/GTX abgewatsche hat mich so auf den Plan gebracht.....weil es nicht stimmt. Das hört sich ja anders an- und erledigt

Ich lebe so, dass es halt einfach für hohe Sprit-Kosten und hohen Strombedarf reichen muss.. dafür gehe ich mich nicht jedes Weekend besauffen und nenne das dann "public relations".. haha :D




Joker, ich habe nicht dich gemeint und auch kein Magazin, sondern die Penner bei Ati, die diese Spezifikationen nicht nutzen können
OK- Peace





Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke 

#62 Verfasst am 13.02.2009, um 22:30:19



mich hats doch selbst nur verwundert, dass die aufm Papier so einen guten Eindruck macht, im Bench aber nicht :L



greetz
Poison Nuke

Joker (AC)

#63 Verfasst am 13.02.2009, um 22:35:32



Atis Flaschenhals war die Speicherbandbreite in GB/Sek (war aber schon bei der Pro klar----> HWLuxx)


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

PN's Forum \ Computer \ Hardware \ Grafikkarten und Monitore \ ATI 2900XT vs Nvidia 8800GTX


- Zurück zur Homepage - Eigene Beiträge - Neue Beiträge - Wer ist online? - Impressum - Datenschutz - Statistiken -



Board coded and provided by: Poison Nuke
Copyright 2007-2014, Robert Menger