Registrierung
leer
leer
newposts
Users
search
FAQ
Login
Start

Hallo Gast, und Willkommen im Forum. Sie müssen sich einloggen oder registrieren, um alle Funktionen nutzen zu können.


PN's Forum \ Computer \ Hardware \ Grafikkarten und Monitore \ Warum noch analoge Bildschnittstellen?


Soundfreak *

#1 Verfasst am 02.05.2011, um 18:05:21



Ich frage mich schon seit längerem warum immer noch alle Grafikkarten einen analogen Ausgang bieten und auch die meisten Monitore noch einen analogen Eingang besitzen? Sind D/A bzw. A/D-Wandler für Bildsignale so klein und günstig, dass es sich nicht lohnt darauf zu verzichten. Denn wer bitte benutzt, abgesehen von der ein oder anderen professionellen Anwendung einen alten analogen Monitor an seinem neuen Rechner?


Wenn ich mal nicht an HiFi denke: EFC-Märkische-Adler oder Rugby-Tourist-Münster

bearbeitet von Soundfreak, am 02.05.2011, um: 18:06:12


 Poison Nuke 

#2 Verfasst am 02.05.2011, um 20:47:08



es gibt noch viele User, die einen TFT mit nur analogem Eingang haben, welche sich trotzdem einen günstigen, neuen Rechner kaufen wollen. Oder gar welche die noch eine alte Röhre haben und auf diese nicht verzichten wollen. Zudem die Herstellungskosten durch einen analogen Ausgang noch etwas gesenkt werden können.


Und gerade im professionellen Bereich (vor allem Server usw) gibt es nach wie vor ausschließlich nur VGA Ausgänge, weil mit VGA die Realisierung von entsprechenden Verlängerungskabeln und KVM Systemen besser zu realisieren ist. Und auch der ein oder andere Heimanwender hat u.U. noch eine Grafikkarte mit VGA Ausgang, und daher besteht auch noch gar nicht so selten Bedarf an Monitoren mit VGA Eingang. Zudem das ja nicht viel kostet für den Hersteller.


greetz
Poison Nuke

Soundfreak *

#3 Verfasst am 02.05.2011, um 20:56:08



Das es noch leute gibt die welche benutzen glaub ich gerne. Aber wer bitte schließt an die letzte Hi-End Grafikkarte, welche für Spiele oder Multimedia-Anwendugen konzipiert ist, einen analogen monitor? Und wie sollen Grafikkarten billiger werden durch analoge Ausgänge?


Wenn ich mal nicht an HiFi denke: EFC-Märkische-Adler oder Rugby-Tourist-Münster

 Poison Nuke 

#4 Verfasst am 02.05.2011, um 21:56:58



Ist eine Aussage die ich ungeprüft übernommen habe...weil angeblich die Taktgeneratoren für einen digitalen Ausgang etwas teurer sind als die RAMDACs für einen analogen Ausgang, samt den anderen nötigen Teilen die noch benötigt werden. Im Preisbereich der relevanten Grafikkarten von unter 50€ macht das schon noch was aus


Bei HighEnd Grafikkarten gibt es doch schon seit zig Generationen keine einzige mehr mit VGA Ausgang. Oder hast du hier noch ein Beispiel?


greetz
Poison Nuke

bearbeitet von Poison Nuke, am 02.05.2011, um: 21:57:31


Soundfreak *

#5 Verfasst am 02.05.2011, um 22:14:09



Günstiger, dann ja nur wenn der analoge statt des digitalen eingebaut wird, es sind aber doch heute meist dvi-i schnittstellen, also digital und analog. Also sind beide vorhanden.

- Beiträge wurden automatisch zusammengefügt -
Grund: Doppelposting


Bin gerade über folgenden Artikel gestolpert: http://www.pc-magazin.de/news/tod-einer-schnittstelle-1039320.html Unglaublich wie lage der noch leben soll!


Wenn ich mal nicht an HiFi denke: EFC-Märkische-Adler oder Rugby-Tourist-Münster

 Poison Nuke 

#6 Verfasst am 02.05.2011, um 22:55:46



Bei DVI-I ist das ja kein wirklicher Zusatzaufwand. Es ist ja egal ob es ein DVI-D oder I Anschluss ist... der Aufpreis für die zusätzlichen Komponenten ist marginal. Daher machen es wohl noch viele drauf.

Und da selbst die aktuellsten Sandy-Bridge Servermainboards noch VGA haben, bezweifel ich, dass bis 2015 der Anschluss schon tot sein soll. Das wird noch viel länger Mainboards und Grafikkarten mit mindestens einem analogen Ausgang geben. Vor 2020 glaub ich nicht an den Tod von der Schnittstelle.


greetz
Poison Nuke

Soundfreak *

#7 Verfasst am 03.05.2011, um 09:17:15



Schein wohl so zu sein, dass ein RAMDAC zur Analogisierung des Signals nichts mehr kostet und in Monitoren ein einfacher AD-Converter auch nicht und auch sonst keinerlei störende faktoren hat. Obwohl ich mir das kaum vorstellen kann. Aber gut!
Und du meinst echt bis 2020, aber meinst du jetzt dass es noch welche gibt oder das es noch standard bei jeder grafikkarte ist?


Wenn ich mal nicht an HiFi denke: EFC-Märkische-Adler oder Rugby-Tourist-Münster

 Poison Nuke 

#8 Verfasst am 03.05.2011, um 09:31:12



das hier ist eins der aktuellsten Servermainboards für die neuen Intel Sandy Bridge Xeons:

http://www.supermicro.com/products/motherboard/Xeon/C202_C204/X9SCM.cfm

wie man sieht, da gibt es nur einen VGA Ausgang. Und das Mainboard wird ein paar Jahre auf dem Markt verweilen und ob die Nachfolger schon DVI bekommen werden bezweifel ich auch fast. Und dieses jenige Mainboard wird mit eins sein, was garantiert ein paar hunderttausend mal verkauft wird.

Und solange es solche Boards gibt, wird es denke auch insgesamt noch etwas dauern, bis VGA su unserem Leben verschwindet


greetz
Poison Nuke

Soundfreak *

#9 Verfasst am 03.05.2011, um 09:55:50



Ja, aber du musst auch daran denken, dass diesein Server board ist, an dem wohl eher nicht gearbeitet wird und somit warscheinlich irgend ein alter ausgemustertter monitor hängt. Aber wir wissen ja auch dass die EDV sich schwer tut alte bewährte standards abzulösen. Zum Beispiel PS2, UEFI, ...


Wenn ich mal nicht an HiFi denke: EFC-Märkische-Adler oder Rugby-Tourist-Münster

bearbeitet von Soundfreak, am 03.05.2011, um: 09:58:22


 Poison Nuke 

#10 Verfasst am 03.05.2011, um 10:24:38




Soundfreak schrieb:
Ja, aber du musst auch daran denken, dass diesein Server board ist, an dem wohl eher nicht gearbeitet wird



der Server muss trotzdem erstmal installiert werden, bzw eine Grundkonfiguration gemacht werden und wer will in der Werkstatt schon einen ausgemusterten Monitor stehen haben, die Platz verschwenden. Zudem auch diese irgendwann mal ausfallen und ersetzt werden müssen.


Klar, die Liste ist lang mit Sachen. BIOS, IPv4 um mal die wichtigsten Sachen zu nennen, die sich über zig Jahre gehalten haben.

Aber PS2 z.B. ist ein Standard, der hoffentlich auch noch länger bestehen bleiben wird. Warum? Weil USB bis heute nicht im Ansatz so zuverlässig funktioniert. Wie oft hatte ich schon topaktuelle Mainboards gehabt an die ich eine USB Tastatur angeschlossen hatte und diese nur mit viel Tara funktioniert hatte. nicht zu vergessen, dass man mit PS2 locker größere Distanzen von 10-20m überbrücken kann, bei USB ist selbst 5m schon oftmals zuviel. Kommt zuhause zwar seltener vor (im Rechenzentrum dagegen sehr oft), aber ich hab daheim z.B. auch ein paar Meter Kabelweg zum Rechner und hatte schon das ein oder andere Problem mit der USB Tastatur samt den zwischengeschalteten Hubs.


greetz
Poison Nuke

Soundfreak *

#11 Verfasst am 03.05.2011, um 10:50:13



Das ist sehr interessant, ich hate noch nie Probleme mit USB Eingabegeräten, aber gut mann kann eben nicht an alles denken. Aber wie du schon bestätigt hast es gibt trotzdem viel. Naja mal abwarten was aus den veralteten Standards wird. Ich jedenfalls bin der überzeugung dass analoge Bildschnittstellen an meinem PC eigentlich nichts mehr verloren hat. Nur bei Notebooks für Präsentationseinsätze macht der meines erachtens noch Sinn, da noch zahlreiche Beamer in Seminarräumen hängen welche nur analoge Eingänge haben, aber ich hoffe auch das bleibt nicht mehr lange so.
Selbige Einstellung hab ich dazu allerdings auch bei AV-Receivern oder AV-Verstärker. Haben hochmoderne digitale Bildverbesserer usw drinne bei 1080p oder gar mehr und erhalten analoge videosignale bzw. geben diese aus. Abschaffen und platz in den geräte schaffen bzw. auf deren Rückseiten.


Wenn ich mal nicht an HiFi denke: EFC-Märkische-Adler oder Rugby-Tourist-Münster

bearbeitet von Soundfreak, am 03.05.2011, um: 10:50:30

PN's Forum \ Computer \ Hardware \ Grafikkarten und Monitore \ Warum noch analoge Bildschnittstellen?


- Zurück zur Homepage - Eigene Beiträge - Neue Beiträge - Wer ist online? - Impressum - Nutzungsbedingungen - Statistiken -



Board coded and provided by: Poison Nuke
Copyright 2007-2014, Robert Menger