Parallelität in modernen Rechnerarchitekturen
Intel, aber auch der Konkurrent AMD, setzen immer mehr auf parallel arbeitende Prozessorsysteme. Warum?
Die Geschwindigkeit von Berechnungen innerhalb von Prozessoren lässt sich durch heute verfügbare Technologien nicht beliebig erhöhen. Im Bereich der Personal Computer (z. B. beim Dual-Core-System von Intel) und auch bei den Hochleistungsrechnern gelangt man stattdessen durch das Prinzip der parallelen Signalverarbeitung zu einer wesentlichen Leistungssteigerung. Prozessoren, die in PCs verwendet werden, verfügen daher zum Teil über mehrere Rechnerwerke. Bei Großrechnern hingegen werden auch Prozessoren selbst parallel geschaltet.
Eine einfache Nebeneinanderschaltung von Prozessoren ist jedoch nicht hinreichend, um die Rechenleistung zu steigern. Denn die Bearbeitung von Rechenaufträgen muss auch auf eine effiziente Weise auf die verschiedenen Prozessoren verteilt werden. Diese Steuerungsleistung wiederum darf nicht zuviel Zeit in Anspruch nehmen, da sonst der Geschwindigkeitsgewinn wieder von der Systemverwaltung aufgezehrt werden würde.
Wie genau bei Mehrprozessorsystemen verschiedene Rechenwerke eine komplexe Berechnung parallel durchführen können, hängt auch von der Speicherarchitektur ab. Wenn die Berechnung eines komplexen Datums auf mehrere Prozessoren verteilt werden soll, brauchen alle Prozessoren auch einen Zugriff auf dieses Datum; sie müssen also mit einem gemeinsamen Speicher verbunden sein, und sie können im besten Fall parallel und nicht nur hintereinander (sequentiell) auf diesen Speicher zugreifen. Diese Architektur kennzeichnet die sog. „Vektorprozessoren“. Eine noch stärkere Form der Parallelität ist in Rechnern realisiert, die nicht nur mehrere einfache Daten, sondern auch mehrere Befehle auf je einem Datum parallel ausführen können.
Nicht allein technische Faktoren bestimmen die Wahl zwischen den verschiedenen Großrechnerarchitekturen. Angesichts der hohen Zahl an verwendeten Komponenten müssen die Unternehmen auch auf die Kosten achten. Das Mittel der Parallelität eröffnet die Möglichkeit, auf den Einsatz spezieller Hochleistungsprozessoren zu verzichten und stattdessen eine extrem hohe Zahl mehr oder weniger einfacher Prozessoren zu sogenannten „Computerclustern“ zusammenzufügen.