Die Grafikkarte

Kategorie: Verarbeitung Erstellt: Freitag, 04. Januar 2013 Zuletzt aktualisiert: Freitag, 11. Januar 2013

Grafikkarten dienen der Aufbereitung von Daten für die Betrachtung auf den Monitor. Dazu werden die vom Prozessor bereit gestellten Daten in ein Format gebracht, das der Monitor versteht. Des weiteren unterstützen moderne Grafikkarten den Hauptprozessoer beim Berechnen von Bilddaten.

textmodus 1klTextmodus am Beispiel der Software DOSbox: Nur Buchstaben und Sonderzeichen.Um die Daten, die im PC verarbeitet werden auch zu Gesicht zu bekommen, braucht es eine Grafikkarte. Doch ganz so simpel wie das anfangs klingt, ist es nicht. Ursprünglich diente die Grafikkarte nur dem eingangs genannten Zweck: Sie wandelte digitale Signale des PCs in analoge Signale für den Monitor um und bekam dazu vom Prozessor den Befehl: Schreibe den Buchstaben "A" an Position 2/11 auf den Monitor. Dieses Vorgehen wurde auch "Textmodus" genannt, da der Prozessor keine grafischen Vorgaben für die Ausgabe macht. Dem Textmodus begegnet man zum Beispiel im BIOS oder unter Linux vor dem Laden der grafischen Oberfläche.

Im Textmodus können aber keine Bilder angezeigt werden. Außerdem hat man auch keinen Einfluss auf die Schriftart oder gar die Schriftgröße. Wesentlich flexibler ist der Grafikmodus. Hier werden keine Zeichen an die Grafikkarte geschickt, sondern Befehle, welcher Pixel in welcher Farbe erscheinen soll ("mache Pixel 541/320 rot"). Der Prozessor erechnet also das Bild, die Grafikkarte wandelt diese Befehle in ein Signal um, das der Monitor versteht (analog oder digital).

In den nächsten Evolutionsstufen wandert immer mehr von der Bildberechnung auf die Grafikkarte, so dass der Prozessor entlastet wird. So werden der Grafikkarte nicht mehr Befehle zum Darstellen einzelner Voxel übermittelt, sondern es gibt komplexere Aufträge á la "zeichne ein Rechteck mit den Koordinaten 120/50 bis 280/300, fülle die Fläche rot". Die Pixel für die Bildschirmausgabe berechnet die Grafikkarte dann selbstständig. Noch mehr wird die Grafikkarte bei der Videowidergabe oder dem 3D-Rendering zum Beispiel für Spiele gefordert. Hier findet die komplette De- oder auch Enkodierung von Videodaten auf der Grafikkarte statt. Und für Computerspiele entstehen die grafischen Welten auf der Grafikkarte: Die CPU liefert eine Grunddaten für Objekte (Position, Größe etc.) in der 3D-Welt und die Grafikkarte berechnet daraus die zweidimensionale Darstellung auf dem Monitor. dazu kann die Grafikkarte anhand von Objektpositionen und programmierter Beleuchtung auch Schatten, Nebelschleier und ähnliches berechnen. Kaum überraschend ist in diesem Zusammenhang die Tatsache, dass sich Grafikkarten mit dieser Evolution von eher nebensächlichen Bauteilen zu wesentlichen Leistungsträgern vor allem bei 3D-Aufgaben gemausert haben, die allerdings auch einen Großteil der elektrischen Leistung des Gesamtsystems aus der Steckdose ziehen. Stellenweise werden auch Berechnungen, die nichts mit der bildausgabe zu tun haben von der GPU erledigt, die dann zur GPGPU (general purpose GPU) "aufsteigt".

Aber auch der umgekehrte Weg ist möglich: Gerade in den letzten Jahren gibt es zunehmend Prozessoren, die Grafikfunktionen integrieren. In der 3D-Leistung sind diese Lösungen eher am unteren Ende der Leistungsklasse anzusiedeln, aber für normale "Office-Aufgaben" oder zum Filme gucken reicht das allemal.

Bestandteile

Eine Grafikkarte besteht grob gesagt aus vier wesentlichen Elementen: Der Schnittstelle zum Motherboard, dem Grafikprozessor, der die Leistungsfähigkeit maßgeblich bestimmt, dem Grafikspeicher und den Ausgabeschnittstellen.

grafikkarte desc kl

Bestandteile einer Grafikkarte (am Besipiel einer Club 3D-Karte):

  1. Grafikchip (GPU), hier ATI Radeon 9200
  2. Grafikspeicher, 128 MB
  3. Anschluss fürs Mainboard, hier AGP-Schnittstelle
  4. Monitorschnittstellen (oben DVI, darunter Video-In und VGA)
  5. Digitalisierungschip für analoges Video

Schnittstellen zur Hauptplatine
Wie die Grafikkarten selbst und auch die Motherboards haben sich die Schnittestellen für die Grafikkarte im Laufe der Zeit gewandelt. Nicht zuletzt, da immer größere Datenmengen zwischen Prozessor, Grafikkarte und RAM hin und hergeschoben werden, brauchten Grafikkarten immer den schnellstmöglich verfpügbaren Anschluss.

Heute ist PCI Express das mittel der Wahl zum Grafikkartenanschluss. Dieser bus kann bis zu 16 GB/s übertragen und wird immer weiter entwickelt. Momentan aktuell ist Version 3.0. Zuvor (bis ca 2005) war der AGP (Accelerated Graphics Port) Mittel der Wahl. Wie der Name vermuten lässt, war diese Schnittstelle exklusiv für Grafikkarten zuständig. In der letzten Ausbaustufe wurden ca. 2,1 GB/s übertragen.

Bevor AGP etwa 1997 in Mode kam, wurden Grafikkarten über den herkömmlichen PCI-Bus (Peripheral Component Interconnect) angeschlossen, bei dem sich alle PCI-Karten die damals theoretisch mögliche maximale Übertragungsrate von 133 MB/s teilen mussten. Bis PCI-Ports ab 1992 auf Motherboards zu finden waren, wurden Grafikkarten mittels ISA-Bus (Industry Standard Architecture) angesprochen, kurzzeitig unterstützt durch den VL-Bus (Vesa Local), der sich aber duch die PCI-Konkurrenz nicht durchsetzen konnte.

Grafikprozessor
Seiner Aufgabe angemessen wird der Grafikprozessor mittlerweile in Anlahnung an den Hauptprozessor GPU = Graphics Processing Unit genannt. Die GPU bestimmt die Leistungsfähigkeit der Grafikkarte, da hier sämtliche berechnungen zum Bildaufbau stattfinden. Ist die GPU zu langsam, muss die CPU einige der Aufgaben übernehmen. Ist auch die zu langsam ruckelt das Bild. Für 2D-Aufgaben wie Textverarbeitung, Bilder bearbeiten oder auch Videos schauen sind alle aktuellen GPUs schnell genug. Die Unterschiede werden erst bei 3D-Aufgaben zum Beispiel in Spielen oder auch beim Enkodieren von HD-Videos deutlich.

GPUs für Separate Grafikkarten werden im Wesentlichen von NVidia und AMD (ehemals ATI) produziert. Die Firmen Matrox und S3 haben ihre größten Zeiten wohl hinter sich, produzieren aber noch in sehr kleinem Rahmen Grafikchips für PCs. Welche Firma nun die besseren Chips herstellt, kann dieser Artikel nicht beantworten. Das hängt erstens vom Anwendungsszenario ab und zweitens kommen alle paar Monate neue Chips heraus, so dass man keine generelle Aussage treffen kann. Was allerdings über die letzten Jahre unverändert geblieben ist, ist die Tatsache, dass die Leistungsfähigkeit gut mit dem Preis korreliert.

Ein Bestandteil, der mittlerweile auf den Grafikchip gewandert ist, während er früher als einzelner Chip ausgeführt wurde, ist der RAMDAC. Er wandelt das im Grafikspeicher befindliche Bild in ein (analoges) Monitorsignal um. Beim RAMDAC ist entscheidend, wie groß der Pixeltakt ist, d.h. wieviel Pixel pro Sekunde zum Monitor geschickt werden können. Davon hängen Zeilenfrequenz (Anzahl der Zeilen, die der Monitor pro Sekunde erzeugt) und die Bildwiederholfrequenz (Anzahl der pro Sekunde komplett aufgebauten Bilder) ab. Damit das Bild nicht flimmert, sollte eine Bildwiederholfrequenz von mindestens 75 Hz in der gewünschten Auflösung erreichbar sein.

Ein Beispiel: Ein Monitor soll bei einer Auflösung von 1024*768 Punkten und 100 Hz betrieben werden. Man multipliziert die Anzahl der Bildpunkte (1024*768 = 786432) mit der Anzahl der Bilder pro Sekunde (hier 100). Man erhält ein Ergebnis von etwa 78 Mio. Pixel/sek. Dazu muss man noch etwa 10% dazuaddieren (Verwaltungsaufwand). Daraus folgt ein minimaler Pixeltakt von 87 MHz. Mit der Verbreitung von digitalen Schnittstellen ist der RAMDAC nicht mehr so wichtig, zu Ausgabe analoger Bilder aber nach wie vor entscheidend.

Leistungsbestimmende Faktoren beim Grafikchip sind unter anderem die Zahl der Transistoren auf einem Chip, die Anzahl der Shader-Einheiten (hier finden die kleinteiligen Berechnungen von Einzelteilen der Grafik statt), die Taktfrequenz der GPU, die Größe des Speichers sowie dessen Anbindung und Geschwindigkeit.

Grafikspeicher
Der Grafikspeicher dient im 2D-Betrieb zuallererst als Frame-Buffer, das heißt er beinhaltet den aktuellen Bildschirminhalt. Dazu ist nicht viel Speicher nötig, zum Beispiel bei Full-HD-Auflösung (1920x1080 Pixel) mit 24 bit Farbtiefe (2^24 = 16,7 Mio. Farben) benötigt man 1920x1080x24 bit = 49766400 bit = 6220800 byte = ca 6 MB. Selbst wenn davon mehrere Versionen im Speicher sind bekommt man damit die üblichen 512 MB bis 2 GB nicht voll. Diese riesigen Speicher dienen als Textur-Speicher für 3D-Anwendungen, beinhalten bei ebendiesen Anwendungen die Tiefeninformation (z-Buffer) sowie Koordinaten der Polygone (meist Dreiecke), aus denen dich die dreidimensionalen Objekte zusammen setzen. Texturen, die oft den Hauptteil des Speichers für sich beanspruchen, sind vorgefertigte Oberflächenstrukturen, die vom Grafikchip auf vorberechnete 3D-Modelle gelegt werden. 2 GB werden aber nur bei den schnellsten Chips sinnvoll eingesetzt, die mit hohen Bildraten in höchsten Auflösungen (Full HD und darüber hinaus) arbeiten können. Chips der 100 Euro-Klasse sind mit 1 GB Grafikspeicher gut bedient, größerer Speicher in dieser Preisregion dient eher Marketingzwecken.

Schnittstellen zum Monitor
Nachdem das Bild nun berechnet ist, muss es noch auf den Monitor oder auch Beamer gebracht werden. Kleinster gemeinsamer Nenner ist die seit den 80er Jahren bestehende analoge VGA-Schnittstelle. Theoretisch kann sie bis zur Full-HD-Auflösung mitziehen, aber das Bild sieht dann schon arg matschig aus. Eine deutlich bessere, weil digitale Bildqualität beitet die DVI-Schnittstelle (Digital Video Interface), die Auflösungen bis zu 1920x1200 bei 60 Hz oder im Dual-Link-Betrieb auch Auflösungen bis zu 2560x1600, ebenfalls bei 60 Hz, unterstützt. Ähnlich leistungsfähig und zu DVI Signalkompatibel, aber noch um die Möglichkeit der Übertragung von Audio-Signalen ergänzt, ist die HDMI-Schnittstelle, die vor allem in der Unterhaltungselektronik Verbreitung findet. Seit etwa 2007 gibt es eine weitere Schnittstelle, den DisplayPort. Besonders bei hohen Auflösungen über Full-HD wird diese Schnittstelle Verbreitung finden.
An älteren Grafikkarten findet man vereinzelt auch noch S-Video- oder Komponentenausgänge mit Cinch-Steckern. mit der digitalen Bildübertragung sind diese aber aus der Mode gekommen. 

grafikkarte-schnittst desc klMonitorschnittstellen einer Grafikkarte: v.l.n.r. DVI (digital), analoger Video-Eingang, VGA (analog)

Leistungssteigerung

Mit den aktuell erhältlichen Grafikkarten von der oberen Mittelklasse an aufwärts lassen sich hervorragende 3D-Welten zaubern. Allerdings werden die Grafikdetails in Spielen trotzdem immer aufwändiger, so dass der eine oder antere "Enthusiast" noch mehr Grafikleistung aus seinem PC herausholen möchte. Wenn es also eine Grafikkarte mit dem schnellsten erhältlichen (schon ab Werk übertrakteten) Chip tut, kann man sich entweder eine zweite Grafikkarte in den PC stecken oder aber zu einer Grafikkarte mit zwei Chips greifen. Den Energieversorger wird's freuen, denn damit ist zumindest im 3D-Modus eine Leistungsaufnahme von 600 Watt und mehr nur für die Grafikkarten denkbar. Ein weiterer Nachteil ist vor allem bei der Verwendung zweier Grafikkarten die schwierige Synchronisierung beider Karten. Oft treten sogenannte Mikroruckler auf, die den Spielgenuss trüben.