Registrierung
leer
leer
newposts
Users
search
FAQ
Login
Start

Hallo Gast, und Willkommen im Forum. Sie müssen sich einloggen oder registrieren, um alle Funktionen nutzen zu können.


PN's Forum \ Computer \ Hardware \ Grafikkarten und Monitore \ ATi HD5000 Serie

Seite: 1  2  > 

Sharangir *

#1 Verfasst am 26.05.2009, um 23:18:43



http://razetheworld.gameriot.com/forums/thread/4...at-the-same-time



Specs:
http://www.brightsideofnews.com/news/2009/4/24/a...cs-revealed.aspx


Soll auch eine 5870 X4 geben...
http://www.tweakpc.de/news/14327/ati-radeon-hd-5...kernen-quad-gpu/


Mal schauen, was daraus wird und ob sie's endlich fertig bringen, MEINE Traum-Karte zu bauen ;)


eine weitere Quelle
http://news.softpedia.com/news/Leaked-40nm-Radeo...LOPS-96673.shtml


bearbeitet von Sharangir, am 26.05.2009, um: 23:19:16


Sharangir *

#2 Verfasst am 29.08.2009, um 10:16:28



http://www.gamestar.de/hardware/news/grafikkarten/1958489/ati.html

drei Bildschirme mit je 2560x1600 ansteuern!


Zitat:
Die neuen Karten sollen gleich drei Monitore mit einer Auflösung von 2.560 x 1.600 Pixel pro Bildschirm ansteuern können. Die Rechenleistung soll 2 TeraFLOPS betragen.




Vielleicht macht CF doch bald Sinn?!

Zitat:
Auch die Anisotropische Filterung soll sich verbessert haben. Das Verwenden einer zweiten Karte mit CrossfireX soll 80% mehr Leistung bieten.




Ich bin auf jeden Fall bereit ;)

Zitat:
Die Vorstellung soll am 10. September stattfinden, in den Läden sollen die Karten aber erst am 22. September stehen – ebenfalls laut Gerüchten.





 Poison Nuke 

#3 Verfasst am 29.08.2009, um 11:53:07



ist ja gar nicht mehr lang hin. Und 3x 2560*1600 ist echt geil :hail

das wäre die ideale Karte für mich, endlich alle drei monitore mit einer Karte ansteuern. Müsste ich nur noch 3x 30" mir hinstellen damit es sich auch lohnt :twisted


die 24er sind mir eh schon wieder zu klein :X


ob die wie die Vorgänger auch noch so massiv warm wird und recht viel Strom verbraucht?


greetz
Poison Nuke

Sharangir *

#4 Verfasst am 29.08.2009, um 14:26:08



Die GPU wird ja jetzt im 40nm-Verfahren gebaut, dürfte daher etwas weniger Strom brauchen/weniger Abwärme erzeugen!
Andererseits werden vermutlich die Spannungswandler noch immer extrem heiss, ebenso die Arbeitsspeicher-Module..

Bauweise ist genau gleich, wie bei der Radeon 4890, nur mit zwei DVI-Ausgängen, 1 Hdmi und 1 Display Port (mini Hdmi)

Zwei-Slot-Bauweise bleibt uns daher erhalten, aber ich werde sie eh unter Wasser setzen, nächsten Sommer

3 Wochen und die 5870 ist mein :D



Sharangir *

#5 Verfasst am 07.09.2009, um 13:34:24



http://forum.beyond3d.com/showpost.php?p=1330612&postcount=2257

Sehr interessant!


Morgen soll die Präsentation in London sein! (In den USA am 10.09.2009)

Mann, was bin ich gespannt!

Ich weiss nicht, ob ich mit einer 2GB VRAM-Variante besser fahre oder doch lieber ~30€ spare und die 1024MB nehmen soll..





AundB

#6 Verfasst am 07.09.2009, um 15:23:48



Hehe, typisch ATI. ATI war im Vergleich zu Nvidia immer der *mitgroßenzahleneindruckschinder*
Ich will nicht sagen dass es schlecht ist, aber bei ein Paar Vergleichen, die mein Kumpel gemacht hat waren Nvidia-Karten trotz viel weniger Streamprozessoren z.B., leistungsfähiger. Die wichtigeste Angabe dürfte IMHO die Füllrate sein. Wie es bei der 5800 Serie ausssieht weiss ich nicht, schlecht wirds sicher nicht sein. Soweit ich weiss dürfte eine GTX260 42000 MT/s bieten.
Aber man müsste auch zwischen Spielen unterscheiden. Rennspiele z.B. bräuchten schnelle Speicher, Größe ist da nicht so wichtig. Andere Spiele z.B. brauchen eher viel Spiecher wegen hochauflösender Texturen und hoher Sichtweite etc.



Sharangir *

#7 Verfasst am 07.09.2009, um 15:50:58



Wir werden das morgen sehen, aber Fakt ist, dass der GDDR5-Speicher schneller ist als der Speicher von nVidia,

der soll neu angeblich mit 5 GB/s laufen, also 1200MHz Standard-Takt

Ich habe was von über 100'000MT/s im Hinterkopf, aber weiss nimmer woher..
das sehen wir ja dann die Tage ;)


Ich fänd's auf jeden Fall sehr wichtig, dass die karte DEUTLICH schneller ist, als eine GTX285 von nVidia, sonst komme ich ins Grübeln..



DarkSubZero

#8 Verfasst am 07.09.2009, um 18:02:17



Wow, die 5870 ist ja fast doppelt so schnell wie die 4870 und die 5870x2 ist ja auch noch getunt und würde damit sozusagen der Nachfolger einer 4890x2 sein.

Schade, dass die neuen RV880 Mainboards so lange auf sich warten lassen. würde mit einem 965BE Extremst rocken.



Sharangir *

#9 Verfasst am 07.09.2009, um 18:45:37



RV880 Mainboards?!?!

Meinst du die 800er-North und Southbridge?

Sprich 890FX und SB850.. die kommen im April 2010 (und im Sommer kaufe ich dann die aktuelle Revision des 965BE und ein High-End Mobo von Asus mit besagten Chips)

Aber auch beriets die 790FX ist eine geile Northbridge mit sehr viel potential!


ps:
Die leistung der 5870 kann noch nicht bestimmt werden, basiert alles auf Gerüchten!

Einige meinen, "1.6 times faster than 4870" bedeutet 160% schneller,
andere meinen, das sei wie im Deutschen 1.6 mal = 60% schneller!


Im Englischen ist 1.6 mal = "1.6 times AS FAST AS", weshalb 160% realistischer erscheint.

Auch verglichen mit den Sprüngen die zwischen den älteren Serien liegen, scheint mir das real!

Aber warten wir's ab :)



DarkSubZero

#10 Verfasst am 07.09.2009, um 18:50:13



Ja, ich mein die 890FX. Wird bestimmt ne geile Kombi.



Sharangir *

#11 Verfasst am 07.09.2009, um 18:52:52



Jo, wird es, meine Kombi nämlich

Und dann gibt's vielleicht auch gleich noch den Wakü-Aufsatz für die HD5870 dazu!
Aber Mainboard und RAM und HDD will ich nicht unter Wasser setzen...



Sharangir *

#12 Verfasst am 09.09.2009, um 09:45:03



http://www.hardware-infos.com/news.php?news=3184

Ob die Info stimmt.. keine Ahnung ;)


Zitat:
Demnach hat man beim neuen Performance-Chip schlicht und ergreifend die Anzahl an SIMD-Einheiten von 10 auf 20 verdoppelt. Jede SIMD-Einheit verfügt weiter über 16 5D-Einheiten und eine Quad-TMU. In Summe: 1600 Streamprozessoren und 80 TMUs




Zitat:
Allein schon durch das weiter auf 256 Datenleitungen beschränkte Speicherinterface sollte eine 100 prozentige Leistungssteigerung aber nur in seltenen Fällen möglich sein



Naja, hoffen wir das beste!


http://www.semiaccurate.com/forums/showthread.php?t=636


Zitat:
The real question that everyone is speculating about is the shader count. It is 1600 for Cypress, 800 for Juniper, going down from there. If clocks stay at their targets, more or less where the current R770 is, that should put the DX11 Cypress right on top of the GTX295 for a rumored $100 or so lower price, plus all the added features.




Naja, ich bin weiterhin gespannt, bisher keine bestätigten lecks...



Sharangir *

#13 Verfasst am 10.09.2009, um 07:32:02



Erstes glaubwürdiges Leck: (oder vielleicht hoffe ich das nur, weil es so geil tönt?!)

http://alienbabeltech.com/main/?p=11135


Zitat:
Amazingly AMD doubled the number of SIMD units from 10 to 20. Since each SIMD unit contains 16 5-D units and a Quad-TMU overall, that means we count 1600 stream processors and 80 TMUs. We are talking about a new videocard whose core speed is at 850 MHz and whose 256-bit GDDR5 runs at 1200 MHz – all for the suggested retail of $399! AMD is expecting HD 5870 to come close to the performance of a HD 4870-X2 or the GTX 295.



das wäre einfach HAMMER!!!


Zitat:
What is outstanding is that we are hearing that the HD 5870 will perform at just under 28 watts at idle and peak below 190 watts maximum!!


Mir eigentlich egal, aber wäre auch krass! (OC-Potential )




zur kleinen:

Zitat:
HD 5850 will sport 1440 stream processors and it will have lower clockspeeds than its big brother. We are hearing somewhere around 700/1000 MHz and it can also display simultaneously on three LCDs at up to 2560×1600 resolution.








 Poison Nuke 

#14 Verfasst am 10.09.2009, um 09:26:42



aber wenn man sich überlegt, sie kommt erst jetzt nahe an die Leistung der 295 ran...wie wird sie sich gegen die kommende GT300 Reihe schlagen. Wenn die auch doppelt so schnell ist oder gar noch schneller, hui :X

na warten wir mal ab 8)


gibt es eigentlich schon ein bekanntes Releasedate?


greetz
Poison Nuke

Sharangir *

#15 Verfasst am 10.09.2009, um 09:31:04



Die GTX295 ist eine DUAL-GPU, ebenso die HD4870X2, die haben 60% mehr Leistung als die HD4870.
Von daher wird das mit den 60% = 1.6 mal so schnell also stimmen, wenn sogar AMD davon spricht, mit der GTX295/4870X2 gleichzutreten! :evillol

Ich finde das gut, wenn jtzt nur die 5870 nicht teurer ist, als die 4870X2


Fudzilla' target='_blank'>http://www.fudzilla.com/content/view/15433/1/"]Fudzilla zur HD5850

Schneller als die 4870 UND dx11, aber vermutlich massiv überteuert, am Anfang!



nochmal' target='_blank'>http://www.fudzilla.com/content/view/15436/65/"]nochmal Fudzilla
Und zur HD5870

Zitat:
The chip has as much as 2.1 billion transistors which is more than twice the number the RV770 packs, which has 956 million transistors. The card uses GDDR5 memory clocked at 1.3GHz (5.2GHz in quad mode) and can provide more than 150GB/second bandwidth. The power of this card stays at 180W while in idle the power drops down to 27W, three times less than the 90W on 4870.




Ich bin sehr gespannt, werde aber abwarten, falls tatsächlich mehr als 250€ für die HD5870 verlangt werden sollte!



DarkSubZero

#16 Verfasst am 10.09.2009, um 13:57:44



Warte ab bis die 5890 kommt, dann wird die 5870 deutlich unter 200€ fallen. Ich würde dann einen Preis von 160€ für die Karte gerechtfertigt finden. Aber mehr als 200€ für eine GRAKA ausgeben lohnst sich aus meiner Perspektive einfach nicht.



Sharangir *

#17 Verfasst am 10.09.2009, um 15:30:50



Die 5890 wird wohl erst nächsten Sommer kommen, dauert sicher 6 Monate!

Erst kommt die X2 (Oktober-November) und die kleineren, Mittelklasse-Karten.


Die 5870 wird vermutlich für 300€ auf den Markt gehen..
ich zahle aber nicht mehr als 200-250€ (350CHF), das ist mein budget..


Schade finde ich, dass Ati die 4870 für 210€ auf den markt brachte und der Nachfolger nun für 100€ mehr folgen soll..
Aber das liegt daran, dass durch die Konkurenz kein Preisdruck besteht!



naja, warte ich halt bis Oktober/November, ausser, es kommt alles anders



 Poison Nuke 

#18 Verfasst am 10.09.2009, um 15:40:27



hattest du dich nicht vor ein paar Monaten auf dei 4870X2 festgelegt, das du diese dir ungebedingt zu Weihnachten holen willst, egal was kommt:D





greetz
Poison Nuke

Sharangir *

#19 Verfasst am 10.09.2009, um 15:44:40



Moment!

ich habe den Preis limitiert!
Mehr als 200€ für zwei "alte" Karten würde ich nicht zahlen.

Und da die 4870X2 wohl erst in einem jahr für 100€ zu haben sein wird (gebraucht), lasse ich's bleiben :)


ps: man kann maximal 2 koppeln, davon! (4 GPU's total, meines Wissens!)
(bei nVidia kann man 14 koppeln (mit dem neuen SUPERCOMPUTER (p55-Mobo mit 7 PCi-E-Schnittstellen von Asus) wenn man 7 GTX295 mit Wakü-Aufsatz verbaut



 Poison Nuke 

#20 Verfasst am 10.09.2009, um 15:52:33



sicher das nVidia auch diese 14 dann logisch verbinden kann? Soweit ich weiß geht bei denen bisher auch nur maximal 4GPUs zu einem Verbund.



greetz
Poison Nuke

Sharangir *

#21 Verfasst am 10.09.2009, um 16:22:26



http://www.computerbase.de/forum/showthread.php?t=631481


Zitat:
Laut einem Komilitonen, der für CUDA programmiert, benötigt man pro GPU, die man per CUDA ansteuern möchte, einen CPU-Kern. Wenn das stimmt, kommst du um ein Dual-Prozessor-System mit Nehalem-Xeons und aktiviertem Hyperthreading nicht drumrum.
Prinzipiell ist es aber kein Problem, 14 GPUs über CUDA anzusteuern. Wie gut das skaliert, hängt von deiner Software ab.



Das einzige Problem bei der Sache ist, dass man bisher kein Mainboard hat, wo zwei 6-Kerner draufkommen und man 6 GTX-295 anschliessen kann


Aber Sinn macht das nur für CUDA-Apps, da bereits 2 GTX295 durch die meisten CPU's gebremst werden dürften



 Poison Nuke 

#22 Verfasst am 10.09.2009, um 18:15:06




Sharangir schrieb:
Das einzige Problem bei der Sache ist, dass man bisher kein Mainboard hat, wo zwei 6-Kerner draufkommen und man 6 GTX-295 anschliessen kann



sicher? :P

http://supermicro.com/products/motherboard/QPI/5500/X8DTH-6F.cfm


und wenn schon denn schon, dann RICHTIG :twisted
http://supermicro.com/Aplus/motherboard/Opteron8000/MCP55/H8QMi-2.cfm
hier sollten zumindest zwei GTX295 sicher der Flaschenhals werden :D



greetz
Poison Nuke

AundB

#23 Verfasst am 10.09.2009, um 18:32:26



Oha Also Multitasking ist für diese boards sicher kein Fremdwort...



Sharangir *

#24 Verfasst am 10.09.2009, um 18:34:00



Na, ob das Quad-CPU-Board Spieletauglich ist?
Aber sonst sicher witzig, mit 24 Kernen à 3GHz..


Das X8DTH-6F ist echt heftig!
Damit könnte man zumindest 4 GTX 295 zusammenhängen!
(bis die 6-Kern Xeons verfügbar sind, oder gibbet die schon?)



ps:


Zitat:
CPU:AMD Phenom II X4 955BE
Win 7 RTM
VGA:HD5870 1GB

Crysis 1900x1200 4AA+16AF DX10 Very High
min:30.**
avg:43.**
max:54.**



Crysis (very high) – FSAA 4x / AF 8x
Intel Core 2 Duo 3.33 GHz, 2 GByte, Intel X38, Windows Vista

last table:

GeForce GTX 295 - 34fps
Radeon HD 4870 X2 - 31fps
GeForce GTX 285 - 23fps
GeForce GTX 280 - 21fps
GeForce GTX 260 - 17fps
Radeon HD 4870 - 17fps
Natürlich müsste man noch den Prozessor bereinigen...aber alter Falter




16x AF im einen Fall und nur 8AF im andern!
30% schneller als die GTX295



 Poison Nuke 

#25 Verfasst am 10.09.2009, um 19:22:54




Sharangir schrieb:
Na, ob das Quad-CPU-Board Spieletauglich ist?



hat immerhin SLI unterstützung :D
ich denke das sollte ausreichend Leistung haben zum Spielen, die IO Performance auf solchen Boards ist teilweise jenseits von gut und böse...letzens gabs mal eine Messung mit 4 Quadcores, da stinkte selbst ein aktuelles 12 Core Intel System massivst gegen ab, in allen Disziplinen :L
mit 24 Cores Istanbul sollte da wohl richtig was abgehen :hail

aber der Preis auch....vollausstattung mit 24* 2,8Ghz, 256GB DDR2-800 ECC kostet allein schon 25.000€


greetz
Poison Nuke

Sharangir *

#26 Verfasst am 10.09.2009, um 19:30:20



Man nehme dann doch lieber 2,4GHz und overclocke auf 3GHz.. gibt en geiles Konzept :D

7 Dual-GPUs mit Wakü, 4 Quadcores mit Wakü..

BOAH das braucht zwei MORA-2
http://www.nos-world.de/Pics/Neogate/S4200085.JPG

mit je 9 Lüftern auf jeder Seite vom Case..

okay, vlt braucht es je 18 Lüfter, saugend und blasend..



DarkSubZero

#27 Verfasst am 10.09.2009, um 22:47:14



Bilder gibts von dem hässlichen Teil auch schon:

http://www.computerbase.de/news/hardware/grafikk..._radeon_hd_5870/



Sharangir *

#28 Verfasst am 10.09.2009, um 23:41:07



Das ist die ATI-Version, nicht Sapphire, HIS, Powercolor oder so ;)

Wird schon eine "offene" Version sein, in 2 Wochen dann!



 Poison Nuke 

#29 Verfasst am 11.09.2009, um 09:14:59



hat die gar keine zusätzlichen Stromanschlüsse mehr? ich konnte auf den Bildern irgendwie keine entdecken. Bei Peak 190W kann ich mir das nicht so recht vorstellen.

Die "Auspuffrohre" sehen da irgendwie auch eigenwillig aus, welche Funktion die wohl haben...ich hoffe doch nicht, das die die warme Luft ins GEhäuse befördern :cut


hoffentlich gibt es dann auch Versionen mit 3 DVI Anschlüssen, was will ich mit nem DisplayPort, das hat doch bisher eh kein Monitor und ich wüsste auch nicht welchen Sinn diese Schnittstelle hat. Die sollten sich lieber mal auf eine Schnittstelle für alles einigen. So ne Mischung aus HDMI und DVI (Die Funktionalität von HDMI mit der mechanischen Stabilität von DVI)


greetz
Poison Nuke

Sharangir *

#30 Verfasst am 11.09.2009, um 11:01:20



Das UR-Hdmi war sowas, wie du meinst ;)
massiver und mit SCHRAUBE!

Die roten Auspuffrohre dienen dem ANSAUGEN der Luft!

Das Design ist nicht endgültig, dient allerdings dazu, nicht zu viel über die Karte zu verraten!

http://translate.google.com/translate?hl=en&u=ht...radeonech-hd5800

Toller Kerl, unterschreibt die NDA von AMD und plappert dann doch alles raus


ps: Es soll eine HD5890 SIX geben, mit 6 Display Ports, für 6 Displays..
Aber bei der HD5870 sehe ich nichtmal 3 gleiche, um 3 Displays anzuhängen..
ob da noch ein zusatz-Verteiler dabei ist?!

ps: ich präferiere aber den Projektor, wenn ich auf grossem Bild spielen will.
sind 100", aber nur 1920x1080, das spart mächtig Leistung, für max. details :D

Crysis auf der Leinwand in Full HD und alles ultra hoch, das brauche ich dann noch, einfach mal so zum schauen :D



 Poison Nuke 

#31 Verfasst am 11.09.2009, um 14:14:01



4k wäre geil, wenn schon über Proki :twisted

schade das die Karten bis heute nicht in der Lage sind 4k auszugeben. Wäre echt geil, ein Spiel in 4096*2048 px :hail


greetz
Poison Nuke

Sharangir *

#32 Verfasst am 11.09.2009, um 14:41:38



Sind sie das nicht?!

Die maximale Auflösung ist:
3840x2400

AKTUELL!

Das zauberwort heisst DOWNSAMPLING
http://forums.guru3d.com/showthread.php?s=4404c7...e0eb22c&t=302054
(Dabei kann man die MAXIMALE Auflösung ausgeben, die ein Spiel unterstützt. Der Bildschirm skaliert dann runter auf seine native Auflösung, aber insgesamt schaut es zig mal besser aus, als mit AA!!!)


macht echt was her, bei den games, wo man ausreichend Leistung für die Auflösung hat!




DarkSubZero

#33 Verfasst am 11.09.2009, um 14:44:58



Kann man auf Monitoren oder Prokis dann diese Auflösung nativ ausgeben?



Sharangir *

#34 Verfasst am 11.09.2009, um 14:59:58



Wie gesagt:

Die Methode heisst "DOWNSAMPLING",
es geht darum, dass die Kanten und Texturen alle im "original" ausgegeben werden!
Der Monitor gibt dann seine eigene (1920x1080 bspw) Auflösung aus und sampelt das Bild runter!


Ein Beispiel:
http://www.pcgameshardware.com/aid,684782/GTA-4-...wnsampling/News/
Bei dem Bild mit der Hackfr***e kannst du obendran die Auflösung wählen, die die Grafikkarte ausgibt.




Noch was zum eyefinity..

Zitat:
Bei sechs Displays ist dabei noch nicht einmal Schluss: Es sind sechs Monitore pro GPU vorgesehen. Mit mehreren Karten, oder solchen mit Doppel-GPU, lässt sich die Zahl der Displays weiter steigern. Zwei hypothetische 5800-X2-Karten könnten in einem PC so 24 Monitore ansteuern.




bearbeitet von Sharangir, am 11.09.2009, um: 15:19:21


 Poison Nuke 

#35 Verfasst am 11.09.2009, um 20:57:27



das ist ja auch geil :hail

obwohl es ja schon prokis gibt die 4k können...zumindest der Sony für 13k :X

muss aber sagen, gerade bei GTA4 und dem Rennspiel überzeugt es voll, vorallem weil feine Details in der Entfernung wesentlich realistischer Wiedergegeben werden. DAS ist echt ein grund für so ne fette Graka.


greetz
Poison Nuke

DarkSubZero

#36 Verfasst am 11.09.2009, um 21:58:16



Das meinte ich ja es bei 4k TVs oder Prokis nativ aufgelöst wird?



 Poison Nuke 

#37 Verfasst am 11.09.2009, um 22:03:02



wie gesagt klar, gibt es, aber im eher hochpreisigen Bereich. Richtig weiß ich es bisher nur vom dem einen Sony SXRD Proki, von dem Chillout immer so schwärmt, der kann 4k nativ.


greetz
Poison Nuke

DarkSubZero

#38 Verfasst am 11.09.2009, um 22:52:30



Gibt ja auch schon einige 4k TVs und jetzt halt auch schon die passenden Grafikkarten dafür und du hast schon angst gehabt, dass du darauf noch 10 Jahre oder so warten müsstest.



 Poison Nuke 

#39 Verfasst am 11.09.2009, um 23:01:04



die Grafikkarten können aber offenbar noch kein volles 4K
und wird sicher dennoch ne Weile dauern bis das im großen Rahmen kommt, da geh ich jede Wette ein :L





greetz
Poison Nuke

DarkSubZero

#40 Verfasst am 11.09.2009, um 23:34:50



Ich tippe auf nächstes Jahr. Da werden wohl die aller ersten hochpreisigen Serienprodukte in dem Bereich auf dem Consumermarkt kommen.



Sharangir *

#41 Verfasst am 12.09.2009, um 18:58:10



Die neuen Grafikkarten können MAXIMAL 8000x8000 Pixel ausgeben.
(Ist die Obergrenze für eyefinity)

Da sollte also ein 4k-Monitor auch passen!


Aber das brauche ich nicht!
Ich will maximale Bildqualität und dafür verzichte ich lieber auf nen hochauflösenden Screen und nehme meinen Full-HD-Proki!
Denn ein 4K-Bild.. das geht vlt mit CS und Half Life, aber niemals mit Crysis oder Far Cry 2..

Und wenn ich zu viel Leistung habe => Downsampling ;)



 Poison Nuke 

#42 Verfasst am 12.09.2009, um 19:00:11




Sharangir schrieb:
Die neuen Grafikkarten können MAXIMAL 8000x8000 Pixel ausgeben.
(Ist die Obergrenze für eyefinity)



ok das ist die Grenze für eyefinity, aber was ist die Grenze was dann am Ende für die echte Ausgabe unterstützt wird :L

und ist die Frage, bezieht sich das 8000*8000 nicht vllt sogar auf ALLE Monitore gleichzeitig? Weil 3x 2560 sind fast 8000px in der Breite. Also doch noch weit entfernt von den utopischen Auflösungen.


greetz
Poison Nuke

Sharangir *

#43 Verfasst am 12.09.2009, um 19:01:35



Ja, 8000x8000 Pixel insgesamt!

Aber das bedeutet auch, dass man EIN 1:1-Bildschirm mit 8kx8k ansteuern kann!

Immerhin ein 64-Megapixel-Bild



Sharangir *

#44 Verfasst am 12.09.2009, um 19:51:21





offizielles Bild der offiziellen Konferenz in den USA, vom 10.09.2009!

Die offiziellen specs sind auch bekannt gegeben worden:
http://www.computerbase.de/news/hardware/grafikk...on_5000er_serie/

Da der US-$ derzeit so schwach ist, werde ich vermutlich importieren, weil ich mir die europäischen, überrissenen Preise nicht antun will.

Aber vielleicht kommt alles anders.
mein Stammladen hat bisweilen Preise "zum Ausrasten"

Beispiel:
Kollege von mir hat eine HD4890 für 140€ geschossen..
gab's nur eine Woche lang und anschliessend warens wieder 180€ für ein und dieselbe Karte


Fakt ist: ich warte, bis ich die Karte für <350 CHF bekommen kann, am besten mit 2GB Speicher.. für alle Fälle und weil die dann 2 Jahre halten muss
Und ich nunmal maximale Anforderungen stelle..



DarkSubZero

#45 Verfasst am 12.09.2009, um 19:53:43



Was brächte man für eine Rechenleistung umd ein Film in 64MP gucken zu könne?

Wo ist überhaupt die grenze des meschlichen Auges?



Sharangir *

#46 Verfasst am 12.09.2009, um 19:59:59



CRT ist frei von Auflösung und so Schmarrn.

Aber das Ziel wäre wohl das, was Sony und co. mit den LCOS-Chips anstreben:
Die Füllrate so hoch zu steigern, dass man einzelne Pixel gar nicht mehr sehen kann!

Stichwort:Fliegengitter beim LCD!


Andererseits dürfte die Grenze des wahrnehmbaren an Pixeln bei der Anzahl Fotorezeptoren auf der Netzhaut liegen!

Denn jeder Rezeptor kann zu einem Moment nur eine Lichtquelle wahrnehmen!





Die Rechenleistung für einen 64MP-Film.. keine Ahnung..

Es gibt Fotoapparate mit >32 Megapixel..
die Chips sind sicher nicht unglaublich gross.. aber ein Foto ist 62 MB gross..
Bei 64MP sinds 64 MB
Eine Sekunde hat 24 Bilder..gibt 1,5GB pro Sekunde..92GB pro Minute und 11 TERA für einen 120min langen FIlm..

das wird das Problem darstellen






 Poison Nuke 

#47 Verfasst am 12.09.2009, um 22:46:53



da werden wir schon noch hinkommen, zudem keiner in einem 1:1 Format schaut, also wenn 8k*4k oder halt 10k*5k z.B. so in der Art. In der BMW World in München steht so ein Rückpro mit 3m Diagonale und glaube 4k Auflösung oder 6k (irgendwas spezielles für BMW). Da kannst sogar bis an die Scheibe vom Rückpro rangehen und siehst nur mit Mühe die Pixel. Ist noch etwas feiner von der Auflösung wie bei Chillout nur halt sehr viel größer. Also 9x Chillout sein KDS oder noch mehr und man kommt in die Richtung. Denke so bei 8k sollte auf herkömmlichen Bildformaten die sinnvolle Grenze liegen, selbst 2k ist ja schon geil eigentlich.


und übrigens, ein CRT hat schon eine Auflösungsgrenze...die wird schlicht und ergreifend durch die Zeilenfrequenz bestimmt die möglich ist. Und das ist 2k bei 60Hz, mehr geht nicht bei den CRTs. Hab zumindest nie einen gesehen der eine noch höhere Zeilenfrequenz hatte (110kHz oder so war das).


übrigens, ein BR Film unkomprimiert ist auch ein "paar" Terra groß. Ich denke das ist derzeit das geringere Problem.


aber egal, hier geht um die Grafikkarte, also bitte dabei belassen




und da hab ich nämlich noch was...wie gesagt, diese "Auspuffrohre". Es kommt ein Radiallüfter zum Einsatz. Bei denen ist es IMMER so das sie die luft in der Mitte ansaugen und nach außen "schleudern". D.h. wenn die roten Öffnungen wirklich Lüftungsöffnungen sind, dann dürfte da wirklich die Wärme ins Gehäuse geblasen werden. Kann man also nur hoffen das da vllt nur der Stromanschluss sich versteckt


greetz
Poison Nuke

Sharangir *

#48 Verfasst am 13.09.2009, um 14:01:10



Der Stromanschluss ist auf der SEITE der Karte.
Das würdest du sehen, wenn du mal die Bilder vom "PC" (offener Aufbau) anschauen würdest, die AMD bei der Pressekonferenz freigegeben hat.
Die Stromanschlüsse (2 x 6 Pin) müssen da sein, weil die Karte so lang ist, wie eine 8800 GTX!
Die meisten Midi-Tower könnten Sie somit nicht mehr fassen, darum sind die Anschlüsse auf der Seite.



Die Karte ist nicht definitiv so gebaut, sondern wurde nur für die Fotos wohl so verpackt, damit man nichts vom PCB sieht!
Aber du hast schon recht, im geschlossenen Gehäuse (PC) würde sie die Luft gleichmässig ins Gehäuse und aus dem Gehöuse pusten.
(Spielt aber beim offenen Aufbau des Vorführ-Rechners keine Rolle!)





DarkSubZero

#49 Verfasst am 13.09.2009, um 15:16:33



Würde die Karte dann auch nicht in die Silverstone HTPC Gehäuse passen im Receiverformat?



 Poison Nuke 

#50 Verfasst am 13.09.2009, um 15:31:08



also die große im Receiverformat definitiv ja. Aber Silverstone hat massig HTPC Gehäuse die zumindest von der Breite her im Receiverformat sind. Da müsste man schauen welches Gehäuse genau.

unter den Spezifikationen steht normalerweise immer dabei, was machbar ist "Expansion Card - capable of extended graphic cards up to 11,5" z.B.
und 11,5" gibt es bisher noch keine, die längsten haben 10,5".


greetz
Poison Nuke

DarkSubZero

#51 Verfasst am 13.09.2009, um 15:54:52



Hier eins von den meinte ich:

http://www.alternate.de/html/product/Gehaeuse_De...2=Desktop%2FHTPC

http://www.alternate.de/html/product/Gehaeuse_De...2=Desktop%2FHTPC

http://www.alternate.de/html/product/Gehaeuse_De...2=Desktop%2FHTPC


Auch irgendwie geil finde ich das hier:

http://www.alternate.de/html/product/Gehaeuse_De...2=Desktop%2FHTPC



Sharangir *

#52 Verfasst am 16.09.2009, um 06:56:53



Die HD5870 wird im normal getakteten Zustand knapp nicht mit der ASUS GTX 295 ROG MARS mithalten können!

Die Mars kostet 1'000€

Bei uns gibt's die Karte für 900€
http://www.digitec.ch/ProdukteDetails2.aspx?Reiter=Details&Artikel=172779

In Deutschland ist sie zudem nirgends lieferbar, hier schon
Deren Leistung entspricht zwei mal GTX285 im SLi, wohl gemerkt, die seltene und teuere 2GB-Version im SLi!


Grüsse



KuschelTiga

#53 Verfasst am 16.09.2009, um 18:44:28



Sind das theoretische Werte, oder gemessene?
Nicht das Ati die Karte wieder mit ihren HighEnd-Treibern auf GeForce 4 Niveau drücken

Aber insgesammt scheint das mal wieder interessant zu werden



Sharangir *

#54 Verfasst am 16.09.2009, um 20:05:42



Sind gemessene Daten, teils von AMD, teils von Usern, respektive Journalisten, die mit der HD5870 spielen durften.. eh, sorry, Reviews schreiben sollten..

Chinesen halt..



Sharangir *

#55 Verfasst am 17.09.2009, um 18:31:09



http://www.fudzilla.com/images/stories/2009/Sept...5870price_1b.jpg

War heute Morgen für kurze Zeit im Angebot, bei nem holländischen Shop!

Ich vermute, der Preis sinkt noch, bis nächste Woche!


Grüsse



 Poison Nuke 

#56 Verfasst am 17.09.2009, um 19:28:01



bringen die die wirlich in dem Referenzdesign auf den Markt...autsch. Na das wird interessant :L


greetz
Poison Nuke

Sharangir *

#57 Verfasst am 17.09.2009, um 19:54:12



Ne, das ist ein fake-Bild!

Einfach da dran zu erkennen, weil es keine Sapphire-Karte ist ;)
Sapphire Karten haben IMMER ein Logo auf dem Lüfter!

Ausserdem kriegen die Läden die Karten erst am Dienstag, den 22.09.2009 und dürfen sie erst am Montag rausgeben.
Die Bilder der echten karte werden wohl noch was auf sich warten lassen...

Weitere Bilder der Test-Samples hier:
http://ht4u.net/news/20941_zahlreiche_bilder_zur...870_aufgetaucht/

Eine "nakte" ist auch dabei!



 Poison Nuke 

#58 Verfasst am 17.09.2009, um 22:51:47



die sieht ja recht clean aus. Wenig Bauteile...aber ist ja auch gut, je weniger Bauteile desto geringer sollte die Fehleranfälligkeit sein. Ok die Chips selbst sind komplexer, hoffen wir mal das die dennoch robust sind 8)

gut finde ich, das die DVI Ausgänge mal geschirmt sind...aber ist ja auch nötig bei den nun recht hohen Auflösungen.


greetz
Poison Nuke

Sharangir *

#59 Verfasst am 17.09.2009, um 22:57:32



Joar..

http://www.overclock.net/hardware-news/574905-ar...870-1gb-its.html

Hier haste HD-Bilder, da kannste dich an den Details auf der nakten Karte satt sehen


Angeblich hat man die auf 1,1GHz Core-Takt gebracht, mit standard-Spannung!

Bin gespannt, was ich mit Wasser rausholen werde...



KuschelTiga

#60 Verfasst am 18.09.2009, um 09:50:48



Jede Menge Rost

Ich würde dir trotzdem raten erste Berichte bezüglich des Treibers abzuwarten



 Poison Nuke 

#61 Verfasst am 23.09.2009, um 09:22:49



der Release ist nun offiziell:

http://www.heise.de/newsticker/Radeon-HD-5800-Di...-/meldung/145716

:hail

da stehen auch noch einige weitere interessante Details dabei. Interessant ist das sie je nach Spiel teilweise gerade so an die GTX285 rankommt und bei anderen Spielen dann diese um bis zu 60% überholen soll.
Bei der vielzahl von Änderungen würde ich aber fast mehr erwarten. Zudem nVidia ja auch bald mit der GTX300er Serie rauskommen wird.
Hoffen wir mal das die ATi sich gegen die behaupten kann, weil das wird ja der eigentliche Konkurrent werden.


Interessant finde ich, das sogar bis zu 6 Displays bei maximal 5760*2160 möglich sein sollen, also 6x FullHD :twisted

da dann am besten zwei Karten im Crossfire und dann 6x 28" oder so :D
noch geiler wäre fast wenn sie 6x 2560*1600 hinbekommen würde. DAS wäre dann so langsam eine Region wo die Desktopfläche in Windows ausreichend sein könnte 8)


greetz
Poison Nuke

DarkSubZero

#62 Verfasst am 23.09.2009, um 15:36:10



Hier noch ein ausführlicher Test:

http://www.computerbase.de/artikel/hardware/graf...deon_hd_5870/29/



Sharangir *

#63 Verfasst am 23.09.2009, um 18:31:43



Poison, du kannst maximal 30" x 6 an EINE Karte hängen!

Allerdings kannst du VIER Karten im Crossfire-X verbinden und somit auch 24 Monitore zusammenbauen!!!
Für Multitasking sicher nicht schlecht.. Zeitung Lesen, Fotoalben anschauen, 20 Threads im Poison Forum gleichzeitig verschlingen


Die Performance ist wie erwartet ausgefallen und bricht leider bei 8xAA deutlich ein..
ich hoffe, die 2GB-Version bietet da mehr!

Im Schnitt (das Spiel Cryostasis habe ich noch niemals jemanden erwähnen gehört.. das kennt gar keiner..) ist die 5870 gleichauf mit der 4870X2 und deutlich (60%) schneller als die 4870!

Den direkten Vergleich sollte man nur mit der 4870 anstellen, denn eine HD5870X2 wird sicherlich kommen, ebenso eine HD5890 nicht auszuschliessen ist!


Ich denke, dass die GTX380 KNAPP schneller sein wird, als die GTX295.. bei den aktuellen Problemen von nVidia bezweifle ich aber, dass die Karte noch dieses Jahr erscheint.. 2% yield?!?! LOL
Ausserdem wird der Chip noch grösser und die karte bei Release bestimmt 500€ kosten..





Ne, meine Hoffnung ruht weiterhin auf der 5870 2GB, und vor allem darauf, dass ATi mit den ersten richtigen Treibern noch einiges aus der Karte rausholen wird. (zumal hier nur ein Beta-Treiber installiert war!)
Viele Karten haben in den ersten 6 Monaten noch bis zu 50% Leistung zugelegt, durch die Treiber!


Hinzu kommen folgende wichtige Aspekte:
2 HD4890 kosten ZWAR etwa gleich viel, wie die 5870, sind auch etwas schneller!

ABER:
Mikroruckler,
Treiberprobleme,
NUR dX10.1
MASSIV höherer Strombedarf!



Der Preis ist überdies lächerlich..
400$ versus 350€?!
Der Kurs ist doch 1,5 aktuell..

Naja, bei uns ist die UVP 520 CHF und der erste Shop bietet sie schon für 479 an :D

Ich warte einfach, bis die 2GB-Version für 350CHF verfügbar ist und greife dann zu.
Das lohnt sich dann mehrfach:
Aktuelle Treiber, Colin McRae: Dirt 2 ist kostenlos dabei, und es reut weniger, den H2O-Aufsatz zu kaufen :D



 Poison Nuke 

#64 Verfasst am 23.09.2009, um 20:43:16



na mal schauen was nVidia da aus dem Hut zaubert. Wäre nat. Vorteilhaft für AMD wenn nvidia es nicht mehr vor dem Weihnachtsgeschäft schafft ... aber so optimistisch bin ich irgendwie nicht :X


PS: also wenn dann doch lieber 6 Monitore an 4 Karten verteilt wenn das irendwie sinnvoll geht, weil eine Karte und 6x 30", das würde ja "geringfügig" ruckeln :L
man will ja wenn schon mit 7680*3200px Auflösung spielen :twisted


greetz
Poison Nuke

Sharangir *

#65 Verfasst am 23.09.2009, um 20:53:20



Wozu das?!

So lange die keine Rahmenlosen OLED-Displays haben, bringt das doch gar nichts.. ich finde, die Ränder stören gewaltig!

Für Multitasking ist multidisplay IMHO genial, aber für games.. nöö..
ausser vlt, wenn man auf den Display verschiedene Blickwinkel hat.. sprich: Draufsicht in Strategie, oder Seitenfenster bei Auto-Rennen/Fluggames..



Naja, nVidia wird wohl auch keine 100% auf die 285 schaffen ;)




 Poison Nuke 

#66 Verfasst am 23.09.2009, um 20:58:38



naja, dich stören sie vllt, aber ich hab Quake III zumindest schon in 5760*1200 gezoggt auf drei Monis verteilt, das macht schon Fetz :hail
besser als auf einem Monitor zoggen ist es def.

warten wirs ab. Ich hab jetzt erstmal 4000€ für zwei Fahrräder ausgegeben, ob ich da noch Geld für zwei 5870 übrig hab...zumal mein Mainboard da ein Problem bekommt und ich eh ehstmal ein neues Board für zwei Istanbuls bräuchte..."oh oh oh, das wird teuer" :L


greetz
Poison Nuke

DarkSubZero

#67 Verfasst am 23.09.2009, um 23:00:05



Link zu den Rädern?



 Poison Nuke 

#68 Verfasst am 23.09.2009, um 23:28:18



zeig ich dann wenn ich sie habe...beim Canyon Rennrad muss ich noch etwas warten...weil das so ein Sonderangebot ist...statt 3000 nur 2500 8)
ich hoffe das klappt. Lasst euch einfach überraschen


greetz
Poison Nuke

KuschelTiga

#69 Verfasst am 23.09.2009, um 23:35:04



Und da wirfst du mit OffTopic vor, wenn ich in einem Thread zu einem Gehäuse das Kühlkonzept anzweifel?
BTT Admin



Sharangir *

#70 Verfasst am 24.09.2009, um 02:12:14



ne, es geht ja hier um die HD5870, die Poison sich zulegt, weil er das testen will, mit 6 Monitoren!

Robert, bedenke einfach, du brauchst das SONDERMODELL "SIX", mit 6 display-ports, für 6 Bldschirme!

Die normale Karte kann nur 3 Screens!







Da sieht man sehr gut, wie die "Balken" stören, von den Bildschirmen..



ps:
24 Screens und Zocken?! GEHT ja wohl :D





DarkSubZero

#71 Verfasst am 24.09.2009, um 03:53:35



Ich finde sowas total blöd. Warum nicht gleich auf eine Leinwand spiele?



Sharangir *

#72 Verfasst am 24.09.2009, um 08:35:09



meine Worte, Christian ;)

Es geht da wohl nur darum, dass es Leute geben mag, die keine Projektions-Lösung realisieren können!
Alle anderen nehmen eine 100"-Leinwand und nutzen Downsampling von x'xxx mal y'yyy auf 1920x1080..


bearbeitet von Sharangir, am 24.09.2009, um: 08:35:38


 Poison Nuke 

#73 Verfasst am 24.09.2009, um 09:01:45



sagen wir mal so der Balken in der Mitte stört schon gewaltig. Ideal sind eigentlich 9 MOnitore...einer in der Mitte für den Augenfocus und dann 8 außen rum für die äußeren Bereiche vom Blickfeld 8)
hat den Vorteil, die Auflösung ist gewaltig viel höher wie bei FullHD per Leinwand auch wenn man da Downsampling macht.

größter Vorteil von den 6 Monitoren...man hat einfach dann für Desktoparbeiten mehr Platz...das ist der definitive Hauptgrund für mich...das mit den Spielen ist dann halt einfach netter Zusatz, mehr nicht. Ich mach das sicher nicht damit ich auf einer großen Fläche spielen kann.




greetz
Poison Nuke

Sharangir *

#74 Verfasst am 24.09.2009, um 09:08:28



Wieso sollte die Auflösung grösser sein?!?!

Wenn ich mit der GPU eine Auflösung von ~4000 x ~2000 an den Projektor sende, dann kommt da vielleicht nur 1920 x 1080 Pixel raus, aber die Qualität ist massiv besser!

Ausserdem möchte ich das in Zusammenhang bringen:

6 x 24" = 1'000€ und das sind billige Monitore!
Da kommste noch nichtmal Ansatzweise an eine Diagonale von 100"

Dazu brauchst schon NEUN 30"-Monitore..

und für den PREIS, ohne dass man auf den "Raster" verzichten darf, benutze ich lieber den Projektor!

Ausserdem ist downsampling eh eine geniale Sache, denn man macht es nur dort, wo man leistung zu viel hat.

Ein Crysis auf 9 x 30" wird auch in 3 jahren nicht laufen..
Hingegen auf Full HD bereits jetzt.

Und Half Life 2 oder so kann man jetzt bereits locker in 4000 x 2000 spielen (wird leider nicht unterstützt, aber nur als Beispiel)



KuschelTiga

#75 Verfasst am 24.09.2009, um 09:09:36



War da nicht vor ein paar Jahren mal die Rede von Bildschirmfolien, mit denen man billig und nahtlos ganze Hochhausfassaden einkleiden können soll?




 Poison Nuke 

#76 Verfasst am 24.09.2009, um 10:55:42



sharangir...wie wäre es wenn du erstmal meinen Beitrag komplett lesen würdest und dann eine Antwort darauf schreiben würdest




greetz
Poison Nuke

Sharangir *

#77 Verfasst am 24.09.2009, um 19:38:39



Wie gesagt, Robert, diese Auflösung kannst du auch per Full-HD-Projektor realisieren, ohne grössere Probleme. (sofern der Treiber der Karte das mitmacht.. bei ATi leider derzeit nur XP.. aber die 5800 macht hoffentlich auch W7 mit!)

Wenn du einen SXRD (LCOS) Projektor hast, oder D-ILA, um sie allezu nennen, dann ist das auch von den 2 Millionen Pixeln nicht so schlimm, weil die Füllrate so wahnsinnig hoch ist, dass man da kein Gitter hat.
Darum bin ich der Meinung:
100" Downsampling auf Full-HD mit Leinwand >>> 100" durch 9 x 30" Monitor realisiert



 Poison Nuke 

#78 Verfasst am 24.09.2009, um 20:29:20



ja und, du hast immernoch nicht verstanden auf was ich hinauswill. Mir geht es primär um ARBEITSFLÄCHE. Nicht spielen sondern einfach Platz zum arbeiten. Das nebenbei spielen ist halt einfach nette dreingabe soll aber nicht Hauptzweck sein ;)


greetz
Poison Nuke

Sharangir *

#79 Verfasst am 24.09.2009, um 21:00:20



Und den hast du nicht auf 3m Bilddiagonale???

Robert, wenn du das Spiel in 9 x 30"-Auflösung an den Projektor sendest, dann zeigt er dir das gleiche, wie 9 x 30"-Bildschirme zeigen!

Der Projektor mag nur 1080p liefern, aber das Bild ist das gleiche, mit den gleichen 9 Fenstern, der gleichen Schriftgrösse und so weiter!


Da wird nicht 1080p ausgestrahlt, sondern lediglich dargestellt!
So wie, wenn man eine Blu-Ray auf einem 720p-TV widergibt!
Ein gutes Beispiel, denn das Bild sieht genau gleich aus, wie auf einem identischen 1080p-TV!
(zumindest ich erkenne da keine auffälligen Unterschiede! (Die Werbung zeigt 720p-material, nicht 1080p auf 720p dargestellt!)



 Poison Nuke 

#80 Verfasst am 24.09.2009, um 21:25:44



Herr Gott...lasse Gehirn regnen:P

du hast es immernoch nicht verstanden was ich meine :L
dann nochmal kurz zum Mitschreiben:

9*30"
da bekommst 9x das Forum in 2560*1600px drauf oder 9 andere Fenster...Explorer, Grafikprogramme, Email auf das eine Fenster usw.
Jetzt zeig mir mal das Ergebnis wenn du 9*2560px auf FullHD reduzierst und zwar mit Browsern usw und sagen wir mal 120dpi schrift, die schon etwas größer ist. Dennoch, du wirst am Ende nix lesbares mehr haben. Mein Beamer hat 480p und ich steuere den mit 720p an. Sieht in Spielen wirklich nicht schlecht aus besser als native Auflösung. Aber im normalen 2D Betrieb...selbst da fast unlesbar.


greetz
Poison Nuke

Sharangir *

#81 Verfasst am 24.09.2009, um 21:28:18



Okay, das wollte ich vorhin noch anmerken:
Wenn die Schriftgrösse nicht passt, wird's harzig :D
Ich habe mich schon öfters gefragt, ob es da keine Software gibt, die das anpassen könnte?!



 Poison Nuke 

#82 Verfasst am 24.09.2009, um 21:42:19



naja, was bringt mir dann eine gigantische Schrift auf 100"? Dann hab ich effektiv nicht mehr Platz als auf einem 24" TFT.


greetz
Poison Nuke

Sharangir *

#83 Verfasst am 24.09.2009, um 21:45:28



Ne, das meine ich nicht!
Ein programm, das die Schrift irgendwie "glättet" oder so..
weil an und für sich sollte das ja schon gehen, von der Schrift her..
Ausserdem ist das ja nur bei Windows ein problem, in Spielen bleibt die Schrift problemlos lesbar!
Und wenn auf einem 30" von 9 30*ern die Schrift auf 3m Entfernung lesbar ist, dann sollte das auch gehen, dass sie auf dem Beamer lesbar ist ;)



 Poison Nuke 

#84 Verfasst am 24.09.2009, um 21:51:18



mit dem Unterschied das man selten weiter als 2m entfernt sitzt bei so einer Multimonitorkonfig. Es ist und wird definitiv unersetzbar bleiben in den nächsten Jahren. Ich arbeite tagtäglich mit Multiscreenkonfigurationen von min. 3 MOnitoren und das geht einfach nicht. Punkt. Hör jetzt bitte mit der Diskussion auf, weil die ist sinnlos. Wenn du mal richtig auf mehreren Monitoren gearbeitet hast dann wirst du das ganze vllt besser verstehen ;)


so, btt


hier ein kleiner Bericht über Preise und noch ein par schöne Demovideos :hail
http://www.heise.de/newsticker/Radeon-HD-5850-ab...-/meldung/145857


greetz
Poison Nuke

bearbeitet von Poison Nuke, am 24.09.2009, um: 21:51:24


apophisii

#85 Verfasst am 24.09.2009, um 22:17:15



Hey,

ihr redet alle von der tollen Grafikleistung der Karte. Hat irgendjemand schon erwehnt, dass die neue 5000 er Serie die neuen Tonformate per Bitstreamausgabe beherscht

Da freue ich mich persönlich am meisten drauf.

Zitat:

Zitat:
Allerdings fehlte sämtlichen Modellen bisweilen die Unterstützung von PAP (Proteced Audio Path), weshalb die bei Blu-rays gängigen Audio-Formate Dolby TrueHD und DTS-HD auf 48 kHz bei 16 bit heruntergerechnet werden mussten, wodurch natürlich ein gewisser Qualitätsverlust entsteht.

Audiophile Heimkino-Fans werden sich an dieser Stelle nun händeklatschend freuen: Die Radeon HD 5000 Serie unterliegt diesen Einschränkungen nicht mehr. PAP wird unterstützt und somit steht dem qualitativ hochwertigen Hörgenuss nichts mehr im Wege. Dank voller Unterstützung von HDMI 1.3a sind die Karten der HD 5000 Serie nun endgültig in der Lage die Audio-Signale verlustlos als Bitstrom an den Verstärker zu schicken.




Liebe Grüße

Das Denken ist zwar allen Menschen erlaubt, aber vielen bleibt es erspart.

Sharangir *

#86 Verfasst am 01.10.2009, um 01:02:50



http://www.computerbase.de/artikel/hardware/graf..._5850_crossfire/

in Verbindung mit der Gigabyte HD5850 für 160 €uro ein echt krasses Angebot, oder nicht?

Die Karte ist schneller als die GTX285 und liefert dx11 und vieles mehr dazu!


Aber ich warte auf die 5870 zum Schnäppchenpreis, da ego-shooter die 5850 überfordern dürften!



DarkSubZero

#87 Verfasst am 01.10.2009, um 01:12:50



Wo steht das, dass man die für 160€ bekommt? Unter 220€ ist momentan nichts zu machen.



Sharangir *

#88 Verfasst am 01.10.2009, um 01:37:59



http://www.toppreise.ch/prod_180770.html

Preise sind in CHF!

Ich sehe da 4 online-shops, die die Karte für 245 CHF anbieten, also noch unter 160€



DarkSubZero

#89 Verfasst am 01.10.2009, um 02:43:12



Da glaub ich irgendwie nicht dran. Die werden bestimmt nicht lieferbar sein. Bei uns sind die preise ja auch teilweise unter 200€, aber eben nicht lieferbar. Wenn du die Karte für 160€ kriegen könntest dann würde ich an deiner stelle nicht lange überlegen und sie holen.



Sharangir *

#90 Verfasst am 01.10.2009, um 12:15:31



Was bringt mir dann eine Karte, die für Crysis 2 zu langsam ist?

Ich würde sie sofort nehmen, wenn ich mir nicht solche Sorgen wegen dem Performance-Hunger der nächsten games machen würde:

Colin McRae:Dirt 2
Crysis 2
Bioshock 2
Rage
Borderlands

alles games, die ich kaufen möchte und nicht einschätzen kann, ob die auf 1920x1200 in MAXIMALEN Details laufen!
Weil, wenn max nicht drinliegt, dann gehe ich lieber auf die PS3 zocken, da habe ich 100" und es läuft flüssig :D



KuschelTiga

#91 Verfasst am 01.10.2009, um 12:21:32




Sharangir schrieb:
dann gehe ich lieber auf die PS3 zocken, da habe ich 100" und es läuft flüssig :D



1. Die PS3 ist kein Garant dafür, dass es flüssig läuft (auch da gibt es Games mit fps-Einbrüchen laut diversen Testberichten)
2. Ist die Grafikqualität im Vergleich zu aktuellen PCs ganz weit weg von "maximaler Qualität"
3. Sind Fadeins und Popups Dinge, die ich gar nicht mag. Schon gar nicht auf 100"

Ich wette um ein Bier, dass die nächste GeForce-Reihe, die 5000er von Ati schnupft^^



Sharangir *

#92 Verfasst am 01.10.2009, um 12:30:27



Ich denke auch, dass die FERMI die HD5870 toppen wird, aber zu welchem horrenden Preis?

http://www.fudzilla.com/content/view/15756/65/


Zitat:
Nvidia will implement a top-to-bottom release strategy from high end to entry level. While he didn't talk about it during the keynote presentation, this release strategy also includes a high end dual-GPU configuration that should ship around the same time as the high end single-GPU model.

It is important to note that a chip with 64 clusters can easily be divided in 32, 16 or any similar configuration of clusters.



http://www.fudzilla.com/content/view/15762/65/
dürfte sich um die GTX380 handeln.



Aber dazu kann man ja einen anderen Fred aufmachen, wo sich ein anderer mit beschäftigen kann, denn für mich kommt die nVidia nicht in die Tüte




Und Tiga, das ist mir schon klar, mit der Grafik auf der PS3, aber seien wir mal ehrlich:
Wenn ein Rennspiel nicht auf max details läuft, auf 19", warum sollte man dann nicht eher niedere bis mittlere Details auf 100" bevorzugen?

Ich habe den PC um in den maximalen Grafik-Genuss zu kommen, nicht wegen der Spielefreundlichkeit, denn da ist die Konsole überlegen ;)
Einschieben, loslegen.. (okay, erst installen, updaten, neuerdings ) und manchmal darf man sogar noch zu 2 oder zu 4 spielen..



Sharangir *

#93 Verfasst am 05.10.2009, um 10:55:43



LOL..

gerade nachgschaut, die Gigabyte HD5850 ist nun wieder auf 190€, kein Angebot mehr offen, ab 160€...
Die Shops haben alle den Preis angehoben!

Die HD5870 weiterhin für 270€ mindestens.. sobald sie auf 230€ ist, greife ich zu!

Habe Gestern Dirt 2 auf der PS3 angezockt (DEMO) und bin einfach nur.. WOOOAH!!



DarkSubZero

#94 Verfasst am 15.10.2009, um 15:28:10



Hier ein cooler Test der 5870 im CF-Modus

http://www.tweakpc.de/hardware/tests/grafikkarte...rossfire/s01.php



 Poison Nuke 

#95 Verfasst am 15.10.2009, um 15:45:07



übel, wie die rockt, vorallem die GTX295 schneidet ja wirklich in sämtlichen Blangen schlechter ab...Stromverbrauch, Kosten und nat. die pure Leistung. Selbst eine einzelne 5870 war ja bei dem Test nun schon fast immer vor der GTX295 und das zu einem weitaus besseren PL


wie schnell wird da wohl eine 5900 dann noch werden 8o
scheint zumindest so als wenn die ATi's gerade gut Verbreitung finden. So wie das im Test klingt sind die fast überall ausverkauft oder so in der Art


greetz
Poison Nuke

DarkSubZero

#96 Verfasst am 15.10.2009, um 16:01:58



Stimmt, ich finde es auch geil wie die ATi's abgehen, aber vergiss nicht die Hersteller haben versprochen, dass in einigen Jahren die Leistung von Grafikkarten ver600facht werden soll. Langsam müssen die ja wohl damit anfangen ;)

Bin echt mal gespannt wie die 5000er Serie gegen die Fermis abschneiden wird.

Wenn man bedenkt was jetzt schon 4 5870 im CF zu leisten vermögen wirds für Nvidia fast schon eng.



 Poison Nuke 

#97 Verfasst am 15.10.2009, um 16:38:09



wenn dann eine Fermi besser ist als 4x 5870 im CF dann wirds für ATi eng:D


greetz
Poison Nuke

DarkSubZero

#98 Verfasst am 15.10.2009, um 16:42:09



Das kann ich mir beim besten Willen nicht vorstellen und zur Not hätte man vielleicht noch die 5950/5970/5990 im Quartett



 Poison Nuke 

#99 Verfasst am 15.10.2009, um 16:47:20



Können die ATi überhaupt Vierfach Crossfire? Ich hab noch nie so ein System gesehen...hatte schonmal danach gesucht aber bisher hatte ich nur Systeme mit nVidia gesehen wo überhaupt mehr als 2 Karten im SLI funktioniert hatten. Und auch da gab es doch eigentlich nur Triple SLI als höchstes oder kann man mittlerweile auch 2 GTX295 zusammenschließen oder gar noch mehr? Also so das sie auch wirklich in einem echten SLI Verbund laufen.


greetz
Poison Nuke

DarkSubZero

#100 Verfasst am 15.10.2009, um 16:51:09



SLI unterstützt bis zu 3 GraKas und CF bis zu 4.

Steht sogar im ersten Satz in dem von mir verlinkten Test.

Mit 4 5000er könntest du dann auch 12 vollwertige Monitore separat ansteuern


bearbeitet von DarkSubZero, am 15.10.2009, um: 16:53:57

Hinweis: sie befinden sich nicht auf der letzten Seite. Aktuelle Seite: 1  2  > 

PN's Forum \ Computer \ Hardware \ Grafikkarten und Monitore \ ATi HD5000 Serie


- Zurück zur Homepage - Eigene Beiträge - Neue Beiträge - Wer ist online? - Impressum - Nutzungsbedingungen - Statistiken -



Board coded and provided by: Poison Nuke
Copyright 2007-2014, Robert Menger