permanente Durchbrüche
Hallo,
Seit Jahren bleibt eigentlich die CPU Technologie „stehen“…
nein, sie entwickelt sich jetzt nur anders, als die
Marketing-Heinis uns das jahrelang als Werbung verklickern
wollten. Bis vor paar Jahren war die GHz-Zahl das alleinige
Werbeargument. Dementsprechend hat man die Taktfrequenz
hoch getrieben und unsinnigerweise als Alleinstellungsmerkmal
verkauft.
Jetzt schaffen einzelne CPU-Kerne mit weniger Taktfrequenz
teilweise deutlich mehr Rechenleistung als z.B. noch ein P4.
Das nenne eich mal einen „Durchbruch“.
Es gibt immer mehr Kerne, aber dennoch ist es nciht das
selbe…
Nein, das ist es sicher nicht.
Aber überall wo Paralellisierung sich gut machen läßt,
kann man dadurch deutlich die Verarbeitungsleistung
steigern. Der moderne PC mit seinen vielen Diensten und
Anwendungen, die parallel laufen ist dafür also schon mal
prädestiniert.
Dass GraKa deutlich mehr Rechenpower haben als
die Universal-X86-CPU verwundert da auch nicht.
Schon 2003 wurde großartig von IBM getönt dass es bin
in 1 Jahr, einen 1 THz CPU geben würde…
Ja, eine Zeitlang sah es so aus, als ob man die 10GHz
anpeilen wollte. Techn. möglich wäre das schon.
Sinnvoll offenbar nur unter bestimmten Bedingungen, die
aber bei PC offenbar eher nicht gegeben sind.
AMD ist damals aus dem Takt-Hype ausgestiegen und hatte
damit Erfolg.
Wie sieht es aus… was ist der ultimative beste CPU? Und wann
müssen wir mit einem Durchbruch rechnen?
???
Welcher Durchbruch???
Seit ca. 45 Jahren gilt das Moorsche Gesetz fast ungebrochen.
Dass es mal (in 10…20 Jahren) damit zu Ende geht, ist
aber abzusehen.
Man kommt früher oder später an absolute physikalische
Grenzen. Die Lichtgeschwindigkeit ist begrenzt und die
Strukturgrößen stoßen zumindest 2-dimensional auch an
die Grenzen (Atomgröße).
Seit „Graphen“ entedckt wurde, heisst es dass 26 GHz CPU’s
problemlos damit möglich seien, aber 26 GHz…die sin eh schon
längst überfällig, laut der Formel… nun müssten wir uns
langsam im THz Bereich bewegen.
??? Unreflektierte Laienvorstellungen!
Meldungen über neue tolle Materialien und neue Technologien
gibt es ständig. Die Einführung allerdings gegen die seit
ca. 50 Jahren etablierte Siliziumtechnologie ist nicht so
trivial. Dahinter stehen ganze Industrien, die komplett
neu aufbaut bzw. umgebaut werden müßten.
Von der Grundlagenforschung bis zur breiten Praxis dauert
es in der Regel ca. 25…30 Jahre.
Was du mit den 26GHz hast, weiß ich nicht.
26GHz als Schaltfrequenz war evtl. 1970 ein Thema, heute
forscht man mit üblicher Siliziumtechnologie im Bereich
von Sub-ps bzw. Frequenzen über 1THz.
Bei Standardtechnologie bewegt man sich längst im Bereich
von wenigen ps. Schaltfrequenzen, weit über 100GHz werden
längst praktisch angewendet.
Was aber die Taktfrequenz angeht, ist diese sehr von der
Architektur der Rechenstrukturen abhängig. Will man diese
unbedingt auf max. Takt züchten, hat das nicht unbedingt
allg. höhere Verarbeitungsleistung zur Folge.
Hauptproblem ist aber, dass mit der Taktrate der
EnergieverbrAuch progressiv ansteigt.
Es ist deshalb intelligenter, komplexere Strukturen mit
effizienter Verarbeitungsleistung zu entwerfen, die aber
mit geringerem Takt arbeiten.
Die Realisierung von hoch komplexen CPU mit deutlich gesteigerten Rechenleistungen hat aber Probleme, von denen
du gar nix weißt. Hauptproblem überhaupt ist das
Verhältnis von Rechnenleistung zu Energieverbrauch.
Da gibt es z.B. Projekte zum Erreichnung der der
Rechenleistung im Bereich von Exaflops ohne dass man
Strom eines ganzen Kraftwerkes dafür benötigt.
http://www.crn.de/hardware/artikel-83574-2.html
Bei der Technologie der Zukunft steht also gar nicht mehr
die Schaltgeschwindigkeit im Vordergrund, sondern die
notwendige Leistungsaufnahme in Bezug auf die Rechenleistung.
Gruß Uwi