Licensed under Creative Commons Attribution 2.0 (Unkown).
Ein Computermonitor ist ein Bildschirm, der primär zum Anschluss an einen Computer gedacht ist. Insbesondere in den Jahren zwischen 1985 und 2005 entwickelten sich Fernsehgeräte und Computermonitore sehr weit auseinander (Qualität, Bildraten, Signale, Pegel, Stecker), seit 2010 wachsen diese wieder zusammen.
In der Anfangszeit der Computer gab es keine Computer-Monitore und auch keine Computer-Tastaturen und -Mäuse. Eingabe und Ausgabe erfolgten über Lochkarten(stapel) oder Lochstreifen. Diese wurde mit Lochkartenstanzern (oder Lochstreifenstanzern) erstellt. Drucker (eigentlich Fernschreiber) sorgten schließlich für die Ausgabe der Daten, die auf den Lochkarten oder -streifen gespeichert waren oder vielmehr aus diesen Daten errechnet wurden (Listenausgabe).
Ab Anfang der 1960er Jahre kamen Mainframe-Systeme wie die IBM S/360-Serie auf den Markt, die mit Hilfe von Text-Kommandos über eine Tastatur bedient werden konnten, wobei die Ausgabedaten mit Hilfe eines Anschlagdruckers auf Endlos-Papier visualisiert wurden. Da für den Ausdruck lediglich die binären Steuercodes für die zu druckenden Zeichen übermittelt werden mussten, war dieses Verfahren im Gegensatz zur digitalen Modulation von Bilddaten bereits vor der Erfindung des Monitors realisierbar. Die ersten Computer-Terminals waren so konzipiert, dass sie dieselben Steuerdaten wie ein damaliger Drucker interpretieren konnten, um daraus eine Textausgabe auf dem Bildschirm zu generieren.
Anfang der 1970er tauchten zunehmend Computerterminals auf. Typische Vertreter waren z. B. die IBM-3270-Terminals oder VT100-Terminals, an die ANSI.SYS unter MSDOS noch erinnert. Der Umweg über Lochkarten und Bänder verschwand, man konnte mit Hilfe solcher Terminals direkt mit einem Computer kommunizieren. Als charakteristische Eigenschaft blieb, dass die Kommunikation immer noch gewisse Ähnlichkeiten mit Fernschreibern und Lochstreifen hatten. Sie wurden meist, analog zu Fernschreibern, seriell mit Text - und Steuerzeichen angesteuert. Eingaben wurden gesammelt dem Zentralcomputer (mit seiner kostbaren Rechenzeit) übermittelt.
Als Monitore selbst kamen meist weiße, grüne oder orange Monochrommonitore zum Einsatz. Die Terminals hatten meist 80 oder 132 Zeichen je Zeile bei 24 oder 43 Zeilen. Die Auflösung lag zwischen 240 und 350 Zeilen, Bildraten bei 50 oder 60 Hz, häufig mit nachleuchtendem Phosphor, um das Flimmern durch den Bildrasteraufbau zu minimieren.
Für Heimcomputer griff man auf vorhandene Technik zurück – den heimischen Fernseher. Etwas besser waren spezielle Computermonitore. Die Darstellungsqualität hängt dabei auch von der benutzten Schnittstelle zwischen Computer und Fernseher ab; in aufsteigender Reihenfolge:
Je weiter unten in der Liste das Verfahren steht, desto weniger – der eigentlich nur für die Fernsehübertragung via Antenne notwendigen – Signalverarbeitungsstufen sind bei der Übertragung involviert; dementsprechend entfällt die jeweils innewohnende Limitierung der Signalqualität durch Bandbreitenbegrenzung oder Modulationsartefakte. Allerdings war zu Beginn der Heimcomputer-Ära am vorhandenen Fernseher ein anderer Eingang als der für das HF-Signal (Antenneneingang) nicht selbstverständlich, weshalb über den HF-Modulator praktisch jeder Fernseher für die Ausgabe geeignet ist. Auf der anderen Seite basiert das Bildsignal vieler Heimcomputer gar nicht auf einem RGB-Signal; sie erzeugen direkt ein FBAS- oder S-Video-Signal, weswegen dort ein RGB-Monitor nicht genutzt werden kann.
Sowohl für Heimcomputer wie den C64 wie auch für Büro-Computer wie die IBM-PCs gab es Computermonitore. Während der folgenden Jahrzehnte entwickelten sich die Darstellungsstandards bei der IT-Technik beständig weiter, während aufgrund der bestehenden Normen der Fernsehübertragung dort (abseits von Detailverbesserungen) praktisch kein Fortschritt stattfand. Dies führte dazu, dass sich über knapp 20 Jahre Computermonitore und Fernseher extrem auseinanderentwickelten. Mit dem ersten Schritt weg vom fernsehkompatiblen Heimcomputer war die Darstellung eines Computerbildes auf einem Fernseher praktisch unmöglich. Die Fortschritte im Bereich der Digitaltechnik ermöglichten später jedoch vergleichsweise einfach eine qualitativ gute Normenwandlung. Dadurch können einerseits Fernsehsignale aus Computerbilddaten erzeugt werden, zum anderen war das eine Voraussetzung für die Weiterentwicklung von Fernsehnormen unter Beibehaltung von Abwärts- und Aufwärtskompatibilität, wodurch sich Computer- und Fernsehtechnik wieder einander annähern.
Um das Jahr 2000 tauchten sowohl im Computer- wie im Fernsehbereich Flachbildschirme auf. Bei Fernsehern kamen am Anfang Plasmabildschirme zum Einsatz, bei Computern Flüssigkristallbildschirme (LCD) mit Dünnfilmtransistoren (TFT). Mit DVI bei Computern und HDMI bei Fernsehern wurden sehr ähnliche Standards der Ansteuerung von Displays entwickelt.
Im Bereich der Heimcomputer kommen die zu ihrer Hochzeit in den 1980er-Jahren üblichen Verbindungstechniken für Trägerfrequenzsignale (via HF-Modulator), Video- und RGB-Signale zum Einsatz (z. B. Belling-Lee-Steckerverbinder, BNC-, Cinch-, DIN- oder SCART-Stecker).
Die Übertragung von Videosignalen wechselte mehrfach.
Computermonitore benötigen meist separat übertragene Synchronsignale (HSYNC + VSYNC). Selten werden beide Signale zusammen übertragen (CSYNC). Das Übertragen mit dem Helligkeitssignal (YUV) oder Sync-on-Green, der Standard bei Video, wird nicht verwendet.
Digital Visual Interface (DVI) ist eine Schnittstelle zur Übertragung von Videodaten. Im PC-Bereich entwickelte sich DVI zu einem Standard für den Anschluss von TFT-Monitoren an die Grafikkarte eines Rechners. DVI beinhaltet die gleichzeitige Ausgabe von analogen (DVI-A oder DVI-I) wie digitalen Video-Signalen (DVI-D und DVI-I). DVI ist in weiten Bereichen kompatibel zum später entstandenen HDMI.
High Definition Multimedia Interface (HDMI) ist eine ab Mitte 2003 entwickelte Schnittstelle für die volldigitale Übertragung von Audio- und Video-Daten in der Unterhaltungselektronik. Sie vereinheitlicht existierende Verfahren, erhöht gegenüber diesen die Qualitätsmerkmale, und bietet außerdem auch ein zusammenhängendes Kopierschutz-Konzept (DRM).
DisplayPort (DP) ist ein durch die VESA genormter universeller und lizenzfreier Verbindungsstandard für die Übertragung von Bild- und Tonsignalen. Anwendungsbereiche sind im Wesentlichen der Anschluss von Bildschirmen und Fernsehgeräten an Computern und ähnlichen Geräten.
Der Weg ist klar vorgezeichnet hin zu einer allgemeinen Schnittstelle, die sowohl zur Stromversorgung und zur Datenübertragung wie auch zur Ausgabe von Videodaten befähigt ist. Siehe USB 3.1 mit Stecker Typ C, Mobile High-Definition Link (MHL) und Thunderbolt.
Das Serial Digital Interface (SDI) ist eine serielle digitale Schnittstelle, primär zur Übertragung von unkomprimierten und unverschlüsselten Videodaten über Koaxialkabel oder Lichtwellenleiter. Es kommt hauptsächlich im Bereich professioneller Fernsehstudios und Fernsehsendern zum Einsatz.
Die SDI-Schnittstelle wird von der Society of Motion Picture and Television Engineers (SMPTE) spezifiziert, und stellt eine Weiterentwicklung der analogen Videostandards wie dem PAL beziehungsweise NTSC-Verfahren dar.
Rasterdisplays überstreichen den gesamten Bildschirm in einem festen Raster. Der Elektronenstrahl wird je nach Darstellung hell- oder dunkelgetastet.
Vektorbildschirme arbeiten ähnlich einem Plotter. Es können schlecht Flächen, aber sehr gut Linien dargestellt werden. Ab einer gewissen Komplexität der Darstellung flimmert das Bild zunehmend, da das Zeichnen zu lange dauert und weniger als 40 Mal das Bild pro Sekunde geschrieben werden kann.
Während neuere LCD-Computermonitore und HDTV-Monitor ausnahmslos quadratische Pixel besitzen, gibt es bei alten LCD-Computermonitoren und SDTV-Bildschirmen sowohl quadratische wie nichtquadratische Pixel. Nichtquadratische Pixel waren bei frühen CGA- und EGA-Laptop-Displays üblich. SDTV-Monitore orientierten sich häufig an der ITU-R BT.601 und hatten horizontal 352, 704 oder 720 Pixel. Weder bei 4:3 noch bei 16:9 noch bei PAL noch bei NTSC waren dann die Pixel quadratisch.
Der Anschluss beim TFT-Monitor ist nicht nur eine Frage der Kompatibilität, sondern auch der Qualität des Bildes. DVI ist eine digitale Schnittstelle für Grafikkarten und Monitore (Digital Visual Interface). VGA ist die analoge Schnittstelle. Die Grafikdaten werden im PC digital verarbeitet, die dann in der Grafikkarte in analoge Signale umgewandelt werden.
Die folgenden beiden Sätze bedürfen bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf mit, ihn zu verbessern, und entferne anschließend diese Markierung. |
Per DVI-VGA-Adapter kann auch ein TFT-Monitor, der lediglich einen VGA-Anschluss besitzt, an einer Grafikkarte mit DVI-Anschluss betrieben werden, jedoch wird bei diesem Verfahren das Bild weiterhin analog übertragen.
Im Bereich existieren sowohl Grafikstandards, wie auch typische Auflösungen für Grafikmodi, wobei die meisten über die VESA standardisiert sind.
Die Bildschirme sind werksseitig auf ein Gamma von 2,2 und eine Farbtemperatur von 6500 K justiert. Mittels Farbmanagement-Software lassen sich diese Werte (soweit darstellbar) anpassen.
Flachbildschirme kennen wie Röhrenbildschirme mit Kathodenstrahlröhre eine maximale und minimale darstellbare Bildschirmauflösung. Während bei einem Röhrenmonitor keine Auflösung genau über die native Lochmaske passt und daher alle Auflösungen entsprechend unscharf wiedergegeben werden. Die meisten anderen Auflösungen müssen interpoliert werden, und erscheinen daher weniger scharf. Ausnahmen sind Auflösungen, die in Höhe und Breite Teiler der Maximalauflösung darstellen und bei denen daher keine Zwischenpixel interpoliert werden müssen, wie etwa die Hälfte oder ein Viertel der nativen Auflösung. Die native Auflösung wird in der Typenbeschreibung des Monitors angegeben.
Als Desktop-Bildschirmauflösung des Betriebssystems ist daher heute die native (= maximale) Bildschirmauflösung des verwendeten Flachbild-Monitors besonders zu empfehlen. Moderne Betriebssysteme übernehmen die Skalierung der Bildschirmdarstellung in die gewünschte Darstellungsgröße selbst, und ermöglichen der Grafikkarte so, den Flachbildschirm in seiner nativen Auflösung anzusteuern.
Bei TFT-Monitoren wird die exakte Bildschirmdiagonale angegeben. Bei früheren Röhrenmonitoren wurde die (nicht vollständig nutzbare) Diagonale des Glaskolbens angegeben. Diese Diagonale war etwa 2,5 bis 4 cm größer als die wirklich nutzbare Diagonale.
Das Seitenverhältnis bei Röhrenmonitoren war fast(?) ausnahmslos 4:3. Bei Flachdisplays war dies anfangs auch so. 17-Zoll- und 19-Zoll-Geräte gab es meist mit 1280×1024er Auflösung und einem Seitenverhältnis von 5:4. Ab dem Aufkommen von 24-Zoll-Geräten um die Jahrtausendwende kamen 16:10 und seit 2008 16:9-Geräte dazu. Letztere haben mittlerweile einen Marktanteil von etwa 90 Prozent.
Eine weitere Größe war bei Röhrengeräten die maximale Zeilenfrequenz bzw. die maximale Bildfrequenz bei gegebener Auflösung. Seit der Ära TFT ist diese von geringerer Bedeutung geworden und beträgt meist 60 Hz. Flimmern hat nichts mehr mit der Auffrischrate des Bildinhalts zu tun.
|
|
|
This article uses material from the Wikipedia article "Computermonitor", which is released under the Creative Commons Attribution-Share-Alike License 3.0. There is a list of all authors in Wikipedia
Computer, Hardware, Software