Registrierung
leer
leer
newposts
Users
search
FAQ
Login
Start

Hallo Gast, und Willkommen im Forum. Sie müssen sich einloggen oder registrieren, um alle Funktionen nutzen zu können.


PN's Forum \ Computer \ Hardware \ Grafikkarten und Monitore \ 3D Bildqualität: AMD vs. nVidia

nVidia deutlich besser, Aufpreis gerechtfertigt: 2 20 %
nVidia merkbar besser, zu hoher Aufpreis: 1 10 %
kein Unterschied zwischen AMD und nVidia sichtbar: 1 10 %
(Preis)/Leistung bei AMD besser, BQ uninteressant: 6 60 %
Gesamt: 10 Stimmen



 Poison Nuke  *

#1 Verfasst am 21.09.2010, um 13:18:19



Hallo,

beim aktuellen Kampf zwischen den beiden Rivalen AMD und Nvidia entscheidet nicht nur die pure Leistung in Form von Bilder pro Sekunde. Auch die Bildqualität ist unterschiedlich. AMD hat sich entschieden, etwas weniger Wert auf die BQ zu legen, um mehr Performance zu erzielen.

Nvidia hat von Haus aus eine etwas höhere Leistung mit der auch eine standardmäßig höher eingestellt BQ bei gleicher Framerate erreicht werden kann. Zum Preis von einem teilweise erheblich höheren Stromverbrauch und auch höhere Anschaffungskosten.

Beispiel nVidia GTX480 vs Radeon 5870

391€ <-> 315€

ca 144W Mehrverbrauch im 3D Betrieb der GTX480
ca 100W Mehrverbrauch im 2D mit zwei Monitoren


hier mal ein von Joker(AC) geposteter Artikel bezüglich der 3D Bildqualität der Vorgänger-Serie.
http://www.computerbase.de/artikel/grafikkarten/...hnitt_einleitung




Wie seht ihr das?


Meine persönliche Meinung ist: die 5870 als Beispiel hat eine solide Leistung und auch bei Standardeinstellungen eine an sich nicht störende Bilddarstellung. Mein Eindruck ist, man muss schon etwas genauer schauen, damit man dann das genannte Flimmern usw sieht.

Aber es ist vllt wie mit dem Regenbogeneffekt bei DLP Beamern. Der eine sieht es, der andere ist nicht empfindlich darauf.
Für mich zählt aber, dass die GTX480 bei meinem Einsatz mit 4 Monitoren (also zwei Grakas) deutlichst teurer wäre über die Zeit wie die Radeon5870, und das bei einer an sich nur teilweise etwas höheren Leistung und einer für mich in der Praxis bisher nicht wirklich erkennbaren besseren Bildqualität.


greetz
Poison Nuke

Florader

#2 Verfasst am 21.09.2010, um 18:55:47



Hallo,

ich stimme Punkt 3 und 4 zu(kann leider nur eins auswählen).

Ich vergleiche imoment die 5770 mit der GTX 460.

Ich frag mich immer: Ist der Aufpreis von knapp 60€ wirklich gerechtfertigt und hat die 460 GTX auch wirklich die mehrleistung für das Geld ?

Meiner Meinung nach nicht. Auch wenn Nvidia eventuell 3 FPS mehr hat, würde ich nicht 60€ mehr zahlen. Da kann ich das Geld lieber woanders in den Rechner

investieren. Ich finde einfach vom P/L verhältnis hat ATI imoment die Nase vorne.


Mfg

Florian

bearbeitet von Florader, am 21.09.2010, um: 18:57:34


Joker (AC)

#3 Verfasst am 21.09.2010, um 19:06:13



Noch zu sagen: AMD hat das Ressourcen-Schonendere AA und
(Ironiemodus an) DANKE an Software-Industrie für Steam. Hier hat der User keine Chance via Hardware vernünftig AAAF zu schalten-

Persönliche Meinung: Die BQ kann nicht hoch genug sein- (auch bei Nvidia)....und für HD Auflösung nicht schnell genug sein.
Für Trilineares AF, für PhysX- bleibt ja nur die 480GTX. (512....wenn sie denn kommt)




Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 21.09.2010, um: 19:06:49


 Poison Nuke  *

#4 Verfasst am 21.09.2010, um 19:10:01




Florader schrieb:
Ich vergleiche imoment die 5770 mit der GTX 460.


hast du beide auch mal visuell beim gleichen Spiel verglichen?



Joker (AC) schrieb:
(Ironiemodus an) DANKE an Software-Industrie für Steam. Hier hat der User keine Chance via Hardware vernünftig AAAF zu schalten-


Im Endeffekt sind das doch trotzdem ganz normale Spiele, sie werden halt lediglich über Steam installiert und gestartet, aber man hat trotzdem eine normale ausführbare exe im Spielevezeichnis, die man beim Treiber hinterlegen kann, oder geht das irgendwie nicht?


greetz
Poison Nuke

bearbeitet von Poison Nuke, am 21.09.2010, um: 19:11:59


Florader

#5 Verfasst am 21.09.2010, um 19:27:11



Leider konnte ich noch keinen visuellen vergleich machen.

Demnächst könnte ich einen vergleich machen zwischen der 260 GTX und der 5770.


Mfg

Florian

bearbeitet von Florader, am 21.09.2010, um: 19:27:26


Joker (AC)

#6 Verfasst am 21.09.2010, um 19:53:23



Naja- bei Nvidia kannst du mit Zusatztool (SSAA-Tool, Nhancer,NVIDIA Inspector ) versuchen weit wie möglich zu kommen....geht in der Regel auch.
Muss halt bei Fehlermeldung aufhören....
Bei AMD halt AABits setzen (renamen der Exe)...dann wird`s frickelig oder ganz übel.

Ich formulier mal anders: Wenn das Game max 4X AA/AF zulässt, dann kannste im Treiber klicken was du willst....
Oder Google anwerfen, ob einer für genau das Game Bits schon gefunden hat.

Und jezt dürfte das Problem auch klar sein (mit Steam)
Der Code ist binär....und man hat eigentlich nix in der Hand (ausser testen---> schauen---> testen usw)
das führt jetzt zu weit

Edit:
Nochmal nachgelesen ....mein 1. Posting
Also, die GTX 480 ist mir so noch zu langsam (DX11 only- klar teilweise verdopplung vs 285GTX)
Nur...wenn man bei Oldis 8xSSAA geschweige 4xOGSSAA (und stärker) schaltet, kackt selbst eine 480GTX ab

Und an dieser Stelle mal Rebellions Sniper-Elite gelobt...das olle Game kann HD und 4XAA/16AF Software



Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 21.09.2010, um: 20:07:17


DarkSubZero

#7 Verfasst am 22.09.2010, um 14:32:16



Mir fehlt irgendwie Möglichkeit "E"

P/L ATI Besser - BQ unwesentlich schlechter.



Joker (AC)

#8 Verfasst am 23.09.2010, um 13:15:23



Was mich interessiert, welche Generation VGA miteinander verglichen wurden ...bei denen die abgestimmt hatten.
Am Besten sofort mit Auflösung und DX 9/10/11
Ich konnte die 5870 nur ca 1,5 Stunden bei DX9 (XP) vs GTX 285 vergleichen (Asus Referenzdesign) bei BioshockII,Sniper Ghost Warrior und einigen Benchs.

@Florader
Die HD5770 finde ich für 125,-....und die 460 für 140,- (?)
Bei THG sind es mehr als eventuell 3 FPS (?)


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 23.09.2010, um: 13:23:37


Florader

#9 Verfasst am 23.09.2010, um 19:59:08



Joker ich muss mich dafür entschuldigen...

Ich hatte nur bei Alternate schnell gekuckt und nicht Gründlich nachgesehen...


Mfg

Florian

Joker (AC)

#10 Verfasst am 23.09.2010, um 20:06:03



Entschuldigen? so nen Quatsch ...für sowas braucht man sich nicht zu entschuldigen

OT: So nen Mist - bei Atelco hatten die eine EVGA Hydro FTW für 445 gelistet- ich gleich per Mail nachgefragt....
Keine Antwort- dafür aber die Site geändert > 100,- drauf.
Hätte lieber dreisst vorbestellen sollen


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

Florader

#11 Verfasst am 23.09.2010, um 20:10:48



Ich hätte mich mal besser informieren sollen...

Über so kleine Einzelheiten hab ich mir nie Gedanken gemacht...




Mfg

Florian

Joker (AC)

#12 Verfasst am 24.09.2010, um 07:47:26



Da geht es heiss her
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069&page=62
Das Problem der BQ AMD vs Nvidia zieht größere Kreise.
Bin nur froh, das ich nicht alleine ein "Goldauge" bezüglich BQ hab-
Interessanter und gleichzeitig übler Gedanke: Nvidia hatte ab der NV 40 Reagiert (stückchenweise besser) -
Wenn aber "Testern" und Usern das egal ist, wären Nvidia doof Papierpunkte zu verschenken- und bauen die selben Filtertrix ein


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke  *

#13 Verfasst am 24.09.2010, um 08:47:00



obwohl der zweite Beitrag irgendwie sogar gleich wieder kontra nVidia geht, weil die scheinbar auch noch einige Optimierungen drin haben, die sich nicht so einfach abschalten lassen :X


gibt es denn eigentlich schon fertige Videos zum direkten Vergleich zweier konkurrierender Karten? Entweder ich übersehe sie oder kann nicht richtig suchen, finde zumindest nix :Y


greetz
Poison Nuke

Joker (AC)

#14 Verfasst am 24.09.2010, um 09:17:09



Das Topic ist voll davon
und Edit (hatte die grottenschlechte BQ vom G70 vergessen.... die ich mir vs 850Xt-PE (--->die ich auch hatte)im PCI-E Wahn gutgebencht hab)

Das geht hin und her (bin schon Stunden dran (mit unter Links)
Da im 3DC findet sich so ziemlich alles ein- und Respekt davor :daumen
Und man muss bisschen ausfiltern (die reiben sich vor allem viel unter die Nase, wer was wann mal gesagt hat - in Berichten)

Meine Meinung inzwischen: Es ist falsch zu sagen, X oder Y hat die bessere BQ - darum ist Y schlecht....
Richtiger wäre: Wer schummelt mehr? Wie könnte es aussehen, wenn beide max BQ anstreben würden? (und auf bisschen Performance verzichten)
Je mehr Leute nach besserer BQ schreien, je schneller wird sich was ändern.


Bei CF und SLI sind sich ja auch alle einig (Microruckler NoGo)
Oder auf Monitore: Bei über 2 Mio. Pixel bei einem Monitor wären 3 fehlerhafte in % kaum nennenswert. Dennoch würde man den selbst in der Holzklasse zurückgeben wollen.


Das Ganze mag wirklich relativ unwichtig sein für die meisten User. Wo wären wir, wenn die das damals nicht mit NV gemacht hätten?
(Winkelabhängigem AF? Negativen LoD?....Kein Tri-linearen Filter und das auf 24" Tendenz größer....)

Die "Ideale" Karte hätte AA der ATI (ist überlegen), AF der Nvidia. Freie Wahl der Stufen....und höchst kompatibel Ingame (Treiber)
und sollte , wenn überhaupt 100Watt verblasen
CUDA incl. natürlich



Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 24.09.2010, um: 09:41:46


 Poison Nuke  *

#15 Verfasst am 24.09.2010, um 11:22:57



hab hier jetzt mal diesen Vergleichskanal gefunden:
http://www.youtube.com/user/GPUminusTECHdotORG#p/u/1/WGYs-6MEnOg

also irgendwie sehen NV und ATi da ohne AA schlecht aus und mit AA sind beide sauber. Da sieht man eher den Unterschied der Einstellungen gut, aber irgendwie eher nicht den Unterschied zwischen den Herstellern :X


ok, hier wird es deutlicher:
http://www.forum-3dcenter.org/vbulletin/showthre...6299#post8266299


mehr (funktionierende) Links hab ich aber erstmal nicht gefunden


greetz
Poison Nuke

Joker (AC)

#16 Verfasst am 24.09.2010, um 11:26:42



Mit "Gorkon" hatte ich mich kurz via PM unterhalten- der sieht es an sich genau wie ich.
In nem Forum muss man halt vorsichtiger unterhalten


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

Joker (AC)

#17 Verfasst am 25.09.2010, um 11:57:38



Hm- bin jetzt grade irritiert
Eingangspost 100/144Watt Mehrverbrauch....
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php
Die messen (so wie ich das raus lese) Am Slot und Zusatzstecker (genauer geht es nicht?)
Die messen 70 Watt Unterschied (Furmark auch 110 Watt Unterschied)
Multimonitor und BluRay
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index16.php

Wer hat jetzt recht? (oder ist es wie immer, das der Eine vom Anderen abschreibt?)

Fragen über Fragen

Bewusst hab ich das nicht in`s Fermi Topic geschrieben (gehört aber ansich auch da rein)

Ups Edit Hab die Bezeichnung AMD HD`s nicht so drauf....jetzt stimmt`s






Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 25.09.2010, um: 12:28:10


 Poison Nuke  *

#18 Verfasst am 25.09.2010, um 14:51:10



vllt wurde beim anderen Testsystem die CPU noch mehr belastet oder so. Oder, da es am Netzteil gemessen hat, war vllt der Wirkungsgrad vom Netzteil nicht immer gleich.

Nagut, dann wird es doch weniger und die Frage größer, wem vertraut man :X
aber so viel weniger ist es andererseits auch nicht


greetz
Poison Nuke

Joker (AC)

#19 Verfasst am 25.09.2010, um 17:20:35



Die Erklärung dürfte recht banal sein.
Wenn je nach Game/Bench die GTX 10-15% schneller ist, wird auch die Last (+ Chipsatz) Näher an die TDP getrieben.
Gerne werden die Systeme ja mit ES-CPU`s oder OC CPU getestet (um eben die CPU nicht als limitierenden Faktor zu sehen)
Dann ist die "TDP" gerne auch mal 200Watt (eigene Erfahrung)


Naja- deine Angabe 144Watt und am Board gemessene 70 Watt sind bei mir über 50%




Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

Joker (AC)

#20 Verfasst am 26.09.2010, um 01:32:02



Wer sich die Mühe mal machen will.....
Einmal durchlesen- durchatmen....und die Videos in HD auf Monigröße schauen (im Anfangstext findet man dann auch den Link zu selbe Szenen zB 280GTX)
http://www.gpu-tech.org/content.php/137-A-closer...n-HD-5000-series

Wenn DAS keiner sieht


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke  *

#21 Verfasst am 26.09.2010, um 01:42:39



den Link zu genau den Videos hatte ich sogar schon weiter oben gepostet :X
allerdings dabei auch vermerkt, dass ich persönlich da keinen großen Unterschied zwischen den Herstellern sehen konnte. Beide sahen je nach Einstellung halt gut oder schlecht aus, aber sobald hohe Settings verwendet wurden, waren die Probleme weg.


greetz
Poison Nuke

Joker (AC)

#22 Verfasst am 26.09.2010, um 07:49:40



Jo- war halt spät (dann sollte ich nicht mehr texten)


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

Euml

#23 Verfasst am 29.09.2010, um 06:38:59



also nach meiner Auffassung sind die ATI von der Hartware her besser als nVidia
dafür hat nVidia deutlich bessere Treiber welche die Karten bessere Ergebnisse liefern lassen

ich Persönlich kaufe lieber nVidia einfach man meist einfach nur den Treiber drauf schmeißt und dann läuft es, bei den ATI ist das so ne Sache ... dafür können neue Treiber bei "älteren" Karten manchmal wunder wirken, so das eine ATI die ehemalig gleich gute nVidia überholt ...

aber wie üblich bin ich zu spät ...


Cerwin Vega Stroker 18
Multigaming-Server
Gear-Forge

 Poison Nuke  *

#24 Verfasst am 29.09.2010, um 06:55:35



also grundlegend ist das aktuell mit der Treiberinstallation genauso wie bei nVidia. den Catalyst draufwerfen und gut is, läuft fast identisch ab und ich hatte da in den letzten Jahren keine Probleme vernehmen können, auch wenn ich bei mir privat bisher nur nVidia drin hatte, so hab ich beruflich oft mit ATi zu tun und da das ein oder andere mal einen Treiber installiert, z.B. für ne 4850X2 oder so.


greetz
Poison Nuke

Joker (AC)

#25 Verfasst am 15.10.2010, um 22:14:22



Auf Gefahr hin hier was falsch verstanden zu haben (?)
Es geht nicht drum wie ein Treiber installiert wird....sondern die allgemeinen ATI-Bug`s.
(zB Battlefield---> Ruckler trotz hoher FPS,.... Einsinken im Boden, Grafikfehler , Rumgezuckel bei Metro DX11 usw,usw)


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke  *

#26 Verfasst am 15.10.2010, um 22:29:35



es war nur kurz ins OT abgerutscht, wie die Treiber sonst so vom Handling her sind, ATi hatte da ja auch sozusagen mal etwas "Rückstand" gehabt, mit Treibern die sich nicht so recht installieren ließen oder andere Probleme bereiteten. Aber ich denke auf der Ebene nehmen sich ATi und nVidia nichts mehr, meiner Ansicht nach laufen beide Treiber ganz ordentlich.


hat natürlich nichts mit dem Vergleich der Bildqualität zu tun, sollte wohl klar sein =)




greetz
Poison Nuke

Joker (AC)

#27 Verfasst am 21.10.2010, um 08:47:22



3D-Center mal richtig mit Fakten zur Filterqualität AMD....
http://www.3dcenter.org/artikel/amd-mit-neuen-sc...-filterqualitaet

Promte Reaktion (?) oder Zufall (?)
http://www.3dcenter.org/news/2010-10-20

DAS wäre jetzt mal der Punkt, wo ich mich als AMD Kunde verarscht fühlen würde
Die Folie zeigt HD5xxx vs HD6xxx (übrigens AF Tester 3DCenter) -
höhö- wir können jetzt fast die Quali von NV halten^^ (smoother transitions between filter levels)






Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke  *

#28 Verfasst am 21.10.2010, um 18:49:26



aber andererseits zeigt es, dass es keine Leistungsoptimierung war sondern wirklich einfach nur "Bug" und AMD bei gleicher BQ auch die Leistung halten könnte ala NV, wenn ich das so richtig lese.


und naja, besser spät bemerkt als nie :L
wenn es einmal bekannt ist, werden die Kunden denke auch sicher genug Druck machen, dass sie es bei der 5000er noch gefixt bekommen, denn das ist ja eine Sache, die sicher nicht direkt in die Hardware implementiert ist, nehme ich mal an.


und wer mit Windows arbeitet, ist es ja gewohnt, regelmäßig enttäuscht zu werden:D


greetz
Poison Nuke

Joker (AC)

#29 Verfasst am 21.10.2010, um 19:39:38



Bisschen Mitleid hab ich mit den VGA-Chip Herstellern schon. Die Anforderungen mit jeder Generation sind ja doch wesentlich stärker, als CPU oder Hardware-Umgebung (Speicher/HDD/MoBos)
Und eigentlich kann man ja nicht meckern- beide schaffen es irgendwie die Performance fast zu verdoppeln.
....wenn ich mal überlege, wie Karten a la Voodoo1 oder TNT noch ausgesehen haben. Selbst eine 5900U oder 9800Pro waren einfach gestrickt-
gegenüber den jetzigen Pixelbeschleunigern

OK- morgen wissen wir mehr (glaub, 3D-Center und PCGH lassen sich nen QualiTest nicht entgehen )


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

Joker (AC)

#30 Verfasst am 22.10.2010, um 07:59:16



Kein Edit möglich.....dann Teil 2:

http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index8.php

Tolle Wurst
Nichts hat sich geändert
Das ist in sofern ein Ärgernis ....wenn AMD es nicht für nötig hält, die BQ wenigstens auf gleichstand zu bringen,
verliert Nvidia möglicherweise die Motivation die BQ zu halten (oder verbessern?)....und auch wieder Cheaten?

PCGH:
http://www.pcgameshardware.de/aid,795021/Radeon-...rte/Test/?page=4


Radeon HD 6870/6850 im Test: Neuerungen beim anisotropen Filter
"Qualität" ist die neue Standardeinstellung, zudem sind die Render Target Replacements aktiv. Uns fiel zu Beginn der Tests auf, dass der anisotrope Filter der HD-6800-Karten im Vergleich mit einer Radeon HD 5870 stärker flimmert. Nach Rücksprache mit AMD teilte man uns mit, dass die Standardeinstellung "Qualität" aggressiver filtert als der bisherige Treiberstandard (A.I. Standard; dort seien die Texturfilteroptimierungen bei der HD-5800-Reihe bereits deaktiviert). Erst die Option "Hohe Qualität" bringe die Optimierungen auf den bislang gekannten Level und ist vergleichbar mit dem bisherigen A.I. Standard der HD-5800-Karten. Die HD-6000-Karten filtern also standardmäßig auf dem Niveau einer HD-5000-Karte mit A.I. Erweitert/Advanced. AMD verschafft seinen neuen Karten einen Fps-Vorteil auf Kosten der Bildqualität. Ist "Hohe Qualität" aktiviert, verschwindet das unschöne AF-Banding fast vollständig, das Flimmern wird ebenfalls reduziert - die Bildrate natürlich auch.

Kurz: "High Quality" auf einer Radeon HD 6000 ist nach unserer Einschätzung am ehesten mit Nvidias Treiberstandard (Quality/Qualität inklusive "Trilinearer Optimierung") vergleichbar - und so testen wir daher auch.

Unterm Strich ist die Entwicklung insgesamt positiv:
- das Banding-Problem der Evergreens, laut AMD ein Hardware-Bug, ist beseitigt,
- das AF-Flimmern ist nicht so stark wie bei einer HD 4000 und die Rendertarget-Optimierungen lassen sich auf Wunsch abschalten.
- Den Nutzern werden mehr Freiheiten geboten denn je.

Zwar steht Nvidia hinsichtlich des AFs nach wie vor besser da, so nah wie mit der Radeon HD 6000 kam AMD den Geforce-Karten aber schon lange nicht mehr. Wer Wert auf möglichst sauber gefilterte Texturen legt, kommt dennoch nicht um eine Geforce samt HQ-AF herum.


Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

bearbeitet von Joker (AC), am 22.10.2010, um: 08:23:15


 Poison Nuke  *

#31 Verfasst am 22.10.2010, um 10:04:53



sie versuchen bei der HD6000 also doch erstmal wieder um jeden Preis einen FPS Vorteil zu erreichen, noch mehr auf Kosten der BQ als bisher, aber zum Glück haben sie es zumindest schonmal soweit gebracht, dass man es annährend auf NV Level bringen kann, also immerhin schonmal eine kleine Verbesserung :L


kann man nur hoffen, dass der Northern Islands dann wirklich der Durchbruch wird, der soll ja angeblich dann durch eine komplett neue Struktur richtig abgehen, die HD6000 ist ja nur ein Übergangsprodukt mit der alten Architektur.
Man kann also sagen, die HD6000 ist eh nix anderes wie die HD5000, nur halt mit einigen Bugfixes und hier und da einer kleinen Verbesserung, sonst aber grundlegend nix neues


greetz
Poison Nuke

bearbeitet von Poison Nuke, am 22.10.2010, um: 10:06:47


Aonas

#32 Verfasst am 22.10.2010, um 16:22:56



Lieg ich mit der Annahme richtig, dass die Probleme erst bei extremem AF Levels auftauchen?



Joker (AC)

#33 Verfasst am 22.10.2010, um 21:30:02



@Ajonas- nein
Das "Problem" wird immer komplizierter. Branding ist jetzt fast eingedämmt....(AF Filter schärfer gestaltet)- dafür gibt es jetzt noch stärkeres Texturflimmern. Bisschen trixerei mit den Schaltern (HQ ist jetzt etwas schwächer als altes Q= AI Standard )
CF bleibt bei Bilinear
Normalerweise braucht man für raffinierte Filter "Optimierungen" mehr Transistoren (Rechenops) vs lineare Filter.
Und die HD5K/HD6K haben enorme (höhere) Füllrate als Nvidia - es kann aber sein, das die interne Bandbreite da stockt (AF)...
und man abnorm Leistung verliert. Wäre eine Möglichkeit (da AMD ja selber bei der HD5K von Hardware-Bug redet)
Verdopplung der MTU`s bei nur Verdopplung der Bandbreite - wird schwierig.

Entweder ist das Design eingeschränkter als man vermutet....oder die Macher bei AMD gehen seit Übernahme zu locker mit finanziellen Defiziten um?
Die Presse-Lawine rollt..... es befassen sich immer mehr Sites mit BQ - NV hat die Preise angepasst, GTX580 bestätigt....wenn die Pech haben, bekommen die jetzt richtig nen Einlauf.

Das ist richtig, das der Cayman ein anderes Design hat- aber wie so oft bei solchen Projekten....die Handschrift der Macher bleibt.








Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke  *

#34 Verfasst am 23.10.2010, um 22:43:39



dieses Zitat von THG klingt sogar ganz vielversprechen, bei dem Artikel haben sie sich auch offensichtlich Mühe gegeben, eine objektive Darstellung zu geben

http://www.tomshardware.de/Radeon-HD-6870-6850,testberichte-240657.html


Zitat:
Wenn wir uns auf unseren subjektiven Eindruck verlassen, also das, was vor allem den "Wohlfühlfaktor" in Anwendungen und Spielen ausmacht, dann ist AMD auf dem richtigen Weg, aber noch lange nicht angekommen. Es wird vieles im Detail nicht auffallen, in der Summe jedoch zum Gesamteindruck beitragen. Und der war auf diesem Gebiet bisher nicht negativ.



soll sich zumindest sehr viel getan haben.


greetz
Poison Nuke

Joker (AC)

#35 Verfasst am 24.10.2010, um 00:11:51



AMD ist im Fokus- und dem Cayman wird es nicht anders ergehen (BQ Vergleich....zu Barts....zu NV) das ist gut so- und eben gut für uns.
Vielleicht kommt ja wirklich mal die Zeit, wo wabbernde MipMaps dann alleine der Software zugesprochen kann (und man denen dann den Garaus macht )









Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

Joker (AC)

#36 Verfasst am 03.11.2010, um 08:11:51



http://www.3dcenter.org/artikel/amds-radeon-hd-5...-filterqualitaet

:X
Zwei Seiten geballten Einlauf (Das AMD reagiert, war ja mal auf der Review-Folie zu sehen, bzw das liest, was 3DCenter so schreibt)

DAS nenne ich mal konsequent




Bildung Bremst^^
[Mein PC]
http://www.tualatin.de/phpbb/images/smiles/intel__rulz.gif

 Poison Nuke  *

#37 Verfasst am 03.11.2010, um 08:22:45



schöner Bericht und verdammt übel was da abgeht. Das jetzt AMD noch mit Absicht die Qualität senkt, die eh schon nicht sonderlich gut war


ich hoffe AMD versteht diesen Wink mit dem Zaunpfahl, an dem noch ein kompletter Zaun dranhängt.


greetz
Poison Nuke

 Poison Nuke  *

#38 Verfasst am 08.03.2011, um 09:25:13



wie ich jetzt erst mitbekomme, hat AMD seinen Treiberhack wieder rückgängig gemacht und die Bildqualität in den Standardeinstellungen hochgesetzt.

http://www.golem.de/1102/81473.html

Ist die Frage, ob sie damit in den Standardeinstellungen zumindest wieder auf einem ähnlichen Qualitätslevel wie nVidia sind oder ob da immernoch große Unterschiede bestehen?


greetz
Poison Nuke

Aonas

#39 Verfasst am 08.03.2011, um 12:08:19



Passt ja zeitlich sehr gut

Ich warte nur noch ne Option die Tesselation in jedem Spiel aktiviertDann würden sogar ältere Spiele ziemlich nice aussehen


PN's Forum \ Computer \ Hardware \ Grafikkarten und Monitore \ 3D Bildqualität: AMD vs. nVidia


- Zurück zur Homepage - Eigene Beiträge - Neue Beiträge - Wer ist online? - Impressum - Nutzungsbedingungen - Statistiken -



Board coded and provided by: Poison Nuke
Copyright 2007-2014, Robert Menger