Durchbruch?

Seit Jahren bleibt eigentlich die CPU Technologie „stehen“… Es gibt immer mehr Kerne, aber dennoch ist es nciht das selbe…

Schon 2003 wurde großartig von IBM getönt dass es bin in 1 Jahr, einen 1 THz CPU geben würde…

Wie sieht es aus… was ist der ultimative beste CPU? Und wann müssen wir mit einem Durchbruch rechnen?

Seit „Graphen“ entedckt wurde, heisst es dass 26 GHz CPU’s problemlos damit möglich seien, aber 26 GHz…die sin eh schon längst überfällig, laut der Formel… nun müssten wir uns langsam im THz Bereich bewegen.

Bitte um Antworten.

MfG

D-MAX

Ich überfliege regelmäßig die Onlinemagazine der PC-Zeitschriften und noch einige andere Fachportale… ich wüßte nicht das es auf dem Sektor überhaupt was über 5-8GHZ gibt, und die auch nur bei entweder tiefgekühlen CPU`s oder bei simplen Vertretern der Prozessoren…

Ist ja gar nicht mein Fachgebiet, aber so wie ich das gelesen habe kann man die Taktfrequenz auch nicht mehr steigern weil es Begrenzungen durch die Lichtgeschwindigkeit gibt… d.h. die unterschiedliche Länge der leiterbahnen führ dann dazu das es zu Fehlern durch Laufzeitverzögerungen kommt. Viel kleiner geht auch nicht weil dann die Umgebungsstrahlung die kleinen Strukturen stört(zerstört).

Deshalb ist man halt den Weg gegangen die CPU`s in ihrer Rechenleistung zu optimieren oder halt mehr Kerne zu benutzen.

Bevor ich mir einen PC mit 1x 10Ghz in den Keller setze müsste ich mir wahrscheinlich auch noch eine CEE16A Steckdose am Arbeitsplatz installieren :wink:

Ich fände es ja schon gut wenn die Software die Kerne voll ausreizen würde!

Aber das ist wirklich nicht mein Fachgebiet…

welche Regel? Mooresches Gesetz? hat nichts mit Frequenzen zu tun, nur mit der Transistoranzahl (Verdoppelung alle 18-24 Monate).
Davon abgesehen kein Mensch braucht GHz. Wofür? Brauchst du GHz? Also ich brauch Rechenleistung und keine GHz…

Hallo @D-Max,

Ich bin da auch nicht der absolute " Crack ", aber es hat schon relativ nachvollziehbare Grenzen, warum bestimmte Architekturen nur sinnvoll bis zu Taktfrequenz x angeboten werden.

Aus den Anfängen der Entwicklung von Rechenmaschinen war es vornehmlich aus Schaltzeiten von Einzelkomponenten ( Röhren / Transistoren ) begrenzt.
Dazu kommen noch Laufzeiten von Signalen je nach Länge der Signalleitungen / gesamte Infrastruktur.
( Auch elektrische Signale brauchen Zeit, die Signalwege eindeutig zu durchwandern )

Nun gäbe es noch Möglichkeiten der " Overclocker " erhöhte Schalt und Leckleistungen durch extreme Kühlung kompensieren zu können, aber unter Normalbedingungen steht es bzgl. Taktung außerhalb jeder praktischen Realität im Sinne des x86 - Basisstandards.

Noch eine Vereinfachung:

Einen Basslautsprecher bringst Du aufgrund seiner Bauweise auch nicht dazu, ein 20 Khz - Signal optimal übertragen zu können.

Und nun stellst Du Dir eine CPU auf Basis der x-86 Kompatiblität mal so wie einen Breitband - Lautsprecher ( Ein - Weg ) in einem einfachem „Ghettoblaster“ vor. ( obwohl auch dabei schon inkorrekt )

Mit einem Breitband - LS bekommst Du niemals die Klangausbeute eines optimierten 3-Wege LS-Systems.

Du solltest dabei eher die Effizienz im Auge behalten.
Einen der 1. Rechner ( Röhren ) würdest Du kaum mit 2 " handelsüblichen " Kraftwerken auf die Rechenleistung eines Phenom II / Core I bringen können.

Die Komplexität der Mikroarchitektur und die Schaltzeiten / Signallaufzeiten begrenzen bei x86 - kompatieblen Prozessoren daher die Taktraten.
Daher nun zunehmend Servertechnik mit mehreren Kernen bei relativ stagnierenden Taktraten auch für den Privatuser.

Intel wollte den " P-IV " seinerzeit schon auf 8 Ghz treiben…dank AMD haben sie die „Core I“ - Architektur mit deutlich erhöhter " pro Mhz " - Effizienz entwickelt.

Warten wir mal ab, was AMD mit " Bulldozer " dem Core iX - 2xxx an Neuerungen bzgl. Weiterentwicklung entgegenbringen wird.

Der einfache Endanwender wäre z.B. doch froh, mit x€ je 10 W die optimale Prozessorleistung für bevorzugte Anwendungen erhalten zu können.
Der Trend ist halt,in dieser Technologie so effizient wie möglich eine Verbindung aus Hardware & Software zusammenzuführen.

mfg

nutzlos

Hallo :smile:

Danke für deine Antwort.

Also, wie ich glaube erwähnt zu haben, wurde ein Prototyp gebaut, aus einem super Material namens „Graphen“ was uns in Zukunft wohl eine sehr große technologische -Veränderung bringen wird,und dieser Prototyp funtioniert mit 26 GHz!

Also ist es anzunehmen dass sehr bald, auch solche, oder sogar mal bessere CPU’s gebaut werden.

Das „Graphen“ (Grafeen ausgesprochen) ist extrem leicht und es ist 2 Dimensional und durchsichtig! Ebenso ist es superleitend und äusserst flexibel. Dieses Material wird uns in jeden Bereich bereichern und uns unglaubliche Verbesserungen bringen. Ebenso, sind mit diesen Material neue Batterien/Akkus/Kondensatoren möglich, die sich wirklich bin in wenigen Sekunden wirklcih vollständig aufladen lassen.

Mit diesem Material, könnten Wissenschaftlker, neue Metalle erzeugen die leichter als Aluminium sind und flexibeler, stärker als Titan, Strahlenundurchölässiger als blei, superleitender als Kupfer… stärker und durchsichtig wie panzerglas… dann wäre es auch für die Raumfahrt geeignet!

Hallo :smile:

Danke für deine Antwort!

Also zunächst einmal, ja, ich meinte dass Mooresche Gesetz!
Mir ist bewusst dass sich die Komponenten verbessern, aber meist auch die Leistung dadurch, somit ist es doch indirekt zutreffend.

Was ich mit GHz will? Eigendlich nichts, THz oder Phz…dass wäre mir lieber. Aber wenn überhaupt, dann würden normale Privatperson nur Rechner mit maximal 1-2 Thz erhalten. Da sonst bewfürchtet wird dass jemand eine KI schdffen möchte die den Menschen überflügelt…sagte auch ein USA Wissenschaftler.

GHz…THz…PHz…
Die Rechenleistung hängt sehr wohl davon ab…
Oder versuch mal einfach einen 33 MHz CPU in dienen Computer einzubauen und dann Crysis damit zu spielen :wink:

Es ist schade dass die HArdware von Heute nicht richtig ausgelastet wird! Apple hat zwar Leistungsschwächere Technik, aber diese wird jedoch so ausgelastet, dass beim Betrieb manchmal diese Technik als schneller empfunden wird. Dies sollte aich auch Microsoft, Intel und CO. zu Herzen nehmen.

Ich selber hae einen Intel Quadcore mit 4x3,333 GHz, 8 GB DRR² RAM, 2 GB NVIDIA Grafikakrte… aber trotzdem, sind die spiele nicht darauf ausgelegt solch eine Power auszulasten…klar, nicht jeder hat so einen PC…also lieber die Spiele runterschrauben so dass jeder diese kaufen und spielen kann… was aber schade ist.

MfG

D-MAX

Hallo :smile:

Danke für deine Antwort!

Also, wie ich denke erwähnt zu haben, gibt es das neue Supermaterial, was zwar noch nicht marktreif ist, namens „Graphen“ (Grafeen ausgesprochen".

Mit diesem Material wurde ein Prototyp gebaut der es immerhin auf satte 26GHz gebracht hatte! Dabei wenig Strom benötigt!

Graphen ist Superleitend, laut Wissenschaftler sogar das beste was endeckt wurde. Es ist flexibel, durcjhsichtig, es ist 2 Dimensional, ultra leicht und noch vieles mehr… Ebenso können damit auch Batterien, Akkus, Kondensatoren gebaut werden, welche dank der guten eigenschaften des Materials, wirklich bin in nur wenigen Sekunden total aufgeladen werden könne.

Graphen, ist ein Meilenstein und wird schon sehr bald die Menschheit berreichern und uns zukünfktige Technologien ermöglichen die wir uns Heute noch schwer vorstellen können… alleine bei der Raumfahrt…bei Computern, bei der Medizin und und und…

Wenn so ein Prototyp es schon auf 26 GHz schafft, dann bin ich zuversichtlich dass ein Serien Gerät es dann auch wenigstens daqs doppelte schafft, und danch nachfolgende Geräte immer leistuingsfähiger werden. Vielleicht wird es auch dafür dann eine Art Mooresches Gesetz geben.

MfG

D-MAX

Hallo D-MAX,

Was ich mit GHz will? Eigendlich nichts, THz oder Phz…dass
wäre mir lieber. Aber wenn überhaupt, dann würden normale
Privatperson nur Rechner mit maximal 1-2 Thz erhalten. Da
sonst bewfürchtet wird dass jemand eine KI schdffen möchte die
den Menschen überflügelt…sagte auch ein USA Wissenschaftler.

GHz…THz…PHz…
Die Rechenleistung hängt sehr wohl davon ab…

Da gibt es ein kleines Problem.
Das Licht schafft in 1ns (1GHZ) noch 30cm, Strom etwa 20cm.
Bei 1ps (1THz) sind das dann noch 0.3mm fürs Licht und etwa 0.2mm für Stromimpulse.

MfG Peter(TOO)

Hallo,

Graphen, ist ein Meilenstein und wird schon sehr bald die
Menschheit berreichern und uns zukünfktige Technologien
ermöglichen die wir uns Heute noch schwer vorstellen können…
alleine bei der Raumfahrt…bei Computern, bei der Medizin und
und und…

wäre der Thread zu Ehren des Graphen nicht besser im Chemiebrett aufgehoben? :smile:

Wenn so ein Prototyp es schon auf 26 GHz schafft, dann bin ich
zuversichtlich dass ein Serien Gerät es dann auch wenigstens
daqs doppelte schafft, und danch nachfolgende Geräte immer
leistuingsfähiger werden.

Du übersiehst bei der ganzen Leistungsargumentation bzgl. CPU, dass GHz eine Frequenz ist und keine Leistungsangabe. Leistung ist Arbeit pro Zeit und die Frequenz sagt nur aus, wieviel Zeit eine CPU pro Arbeitsvorgang benötigt, nicht jedoch wieviel Arbeit sie dabei verrichten kann. Mehr CPU-Kerne oder optimierte Rechenwerke steigern die Anzahl und Komplexität der Rechenoperationen, die eine CPU pro Takt schafft und erhöhen die Leistung genauso, wie höherer Takt. Aktuelle CPU-Designs leisten bei 3,0 GHz 10x mehr, als ein Pentium 4 vor 10 Jahren. Ob sie dass nun schaffen, weil sie bei gleicher Effizient mit 30 GHz getaktet werden, oder statt eines Kerns nun 4 Kerne haben, die 2 - 3 Rechenoperationen gleichzeitig ausführen können, statt nur einer, ist doch letztlich Wurscht, oder? Die Frage ist, welcher Lösungsansatz der energie- und kosteneffizientere ist bzw. wo technologisch das Optimum liegt.

Gruß, Jesse

Servus,

die Zukunft heisst nicht mehr Taktfrequenz, sondern Memristor.
Seit seiner theoretisch nachgewiesenen Existenz vor rund 30 Jahren, konnte vor ca. 1 Jahr ein Prototyp gebaut werden.

Jetzt warten alle auf die Serienfertigung und investieren in diese Forschung.

widecrypt

Dieser Thread ist shcon der richtige :smile:

Graphen wird in allen Berreichen eine Bereicherung sein. Auch im CPU Bereich.

MfG

D-MAX

Von Memristor hatte ioch zuvor noch nie etwas gehört!

Dafür gibts ein Sternchen! Danke dass ich was neues gelernt habe!

Ich kann selbe rnur mal vorschlagen „Graphen“ zu googleln, wenn du es ncoh nicht kennst.

MfG

D-MAX

Hallo,

von utopischen GHz hab ich auch noch nichts gehört, aber IBM entwickelt mit noch einem Unternehmen, an einem Klebstoff, mit dem man ganze Wafer übereinander schichten will, also quasi im Sandwichformat. Laut Aussagen soll das bis zu 1000 fache Rechenleistung ergeben.
Hier der Link:
http://www.computerbase.de/news/2011-09/klebstoffe-f…

Gruß Maldweister

… Laut Aussagen soll das bis zu 1000 fache
Rechenleistung ergeben.

Hallo,

natürlich bei 1000facher Leistungsaufnahme - dann hat dein PC 100 kW und du bräuchtest ein 50m-Schwimmbecken zur Kühlung. Sowas war mal zuerst der Traum und dann der Alptraum von Intel, bis sie eingesehen haben, dass der Weg mit immer mehr Verlustleistung nicht gangbar ist, und eine ganze Entwicklungslinie aufgegeben werden musste. Also so 1000 Prozessoren zusammenzukleben wird ebensowenig gehen wie die 1000fache Taktfrequenz.

Gruss Reinhard

Hallo D-MAX,

" Graphen " ist aber noch genausoweit Utopie, wie der Gedanke an die sogenannte " Nanotechnologie ", bei der u.A. die einzelnen Transistoren durch individuell anregbare Moleküle ersetzt werden sollen.
Signalleitung über " Carbon - Nanotubes " ist ebenfalls in der Forschung, wie auch die Signalleitung über Lichtwellen. Selbst biologische Ansätze über verknüpfung von Nervenzellen werden in Ansätzen erforscht.

Allesamt sind es auf dem Papier sehr interessante und vielversprechende Ideen, aber letztlich wird die rationelle Massenproduktion der Maßstab sein, welche dieser Technologien am ehesten in ( fernerer ) Zukunft zu finden sein könnte.
Eventuell werden auch Kombinationen mehrerer Ansätze zum Erfolg führen…

Momentan ist es aber noch die technologische Evolution, die vorhandene und etablierte Funktionsprinzipien stetig optimiert.

Das stehen neben immer kleineren Fertigungsstrukturen auch optimierungen der architektonischen Layouts auf den Chips.
Dabei kommen ~ alle 2-3 Jahre neue Materialkombinationen in der Chipfertigung zum Einsatz.

Die Bekannteste war hierbei zu Zeiten von P II / III und Athlon der Umstieg von Aluminium auf Kupfer für die Signalleitungen in den Prozessoren. Das war einer der Grundsteine, warum z.B. die Ghz - Grenze seinerzeit in Serie überschritten werden konnte. Auch die Abwärme der Prosessoren verringerte sich dadurch drastisch, weil Kupfer nun mal deutlich besser als Aluminium leitet.

Mit verbesserten Halbleitermaterialien und Konstruktionsdetails in den Mikrotransistoren und Layern der Wafer werden überdies kontinuierlich die Leckströme in der Schaltung verringert.

Es ist halt Evolution in kleinen Schritten, die heutige Prozessoren erst ermöglichte.
Und bezüglich optimaler Auslastung der Ressorcen unken einige Stimmen bereits, dass AMDs kommender " Bulldozer " mit seiner modularen Kernstruktur deutlich leistungsfähiger als " SMT " auf dem Core i7 werden soll.

Aber was nützt der beste Prozessor, wenn sich zu großen Anteilen Software auf dem Markt tummelt, die vorhandene Ressourcen nicht annähernd optimal ausnutzt.
Auch der " User " bleibt natürlich ein Rädchen im Getriebe. So ist die Versuchung doch groß, den " Werbeknüller " zu kaufen, obwohl Office und " Windows - Games " doch nur einen Bruchteil des Potenzials benötigen.

Weiter unten wurde " Apple " als Plattform mit besserer Ressourcennutzung benannt. In Hinsicht auf vergleichbare Technologie wird es daran auch nichts auszusetzen geben, da Apple mehr die User anspricht, die von Hardware bis Software komplett ein gut abgestimmtes System haben wollen .

Und das ist der Unterschied z.B. zu Windows. Hier wird mehr Gewicht darauf gelegt, das gesamte System stets wie ein Chamäleon wandeln zu können. Und somit wird uns die x86 - Technologie auch noch einige Jahre als wandelbarste Plattform mit höchster Kompatiblität begleiten.

Der krasse Gegensatz zu Windows - Systemen sind Konsolen, Tablet-PCs u.ä. Hier wird eine fixe Plattform vorgegeben, auf deren Funktionsumfang die Software von vornherein recht einheitlich programmierbar ist.

Was sich wie lange hält und weiterentwickelt, ist letztlich an die Nachfrage am Markt gebunden.

mfg

nutzlos

Auch Hallo,

um die Wärmeentwicklung hab ich mir auch schon Gedanken gemacht, vielleicht reduziert man die Spannung/Frequenz und investiert die so gesparte Wäremleistung in mehrere Lagen - müssen ja keine 100 oder 1000 sein - vielleicht rechent sich das ja, aber keine Ahnung, habe nichts mit Halbleitertechnik zu tun :smile:

Gruß Maldweister

techn. Unsinn
Hallo,
was da in diesem populär aufgepoppten Artikel steht, ist
rein technisch nur Schwachsinn. Der Laie staunt, der
Fachmann zeigt dir einen Vogel bei solchem vom
dumpfbackigen Journalisten verzapften Humbug.

Die Technischen Herausforderungen stehen an ganz anderen
Stellen. Natürlich wird auch seit Jahren daran geforscht,
die 3. Dimension bei monolitischen Chips zu eropbern,
aber nur einfach als Stapel aufeinander kleben ist nicht
die einfache Lösung und bringt nimmer 1000-fache Geschw.
Gruß Uwi

entwickelt mit noch einem Unternehmen, an einem Klebstoff, mit
dem man ganze Wafer übereinander schichten will, also quasi im
Sandwichformat. Laut Aussagen soll das bis zu 1000 fache
Rechenleistung ergeben.
Hier der Link:
http://www.computerbase.de/news/2011-09/klebstoffe-f…

permanente Durchbrüche
Hallo,

Seit Jahren bleibt eigentlich die CPU Technologie „stehen“…

nein, sie entwickelt sich jetzt nur anders, als die
Marketing-Heinis uns das jahrelang als Werbung verklickern
wollten. Bis vor paar Jahren war die GHz-Zahl das alleinige
Werbeargument. Dementsprechend hat man die Taktfrequenz
hoch getrieben und unsinnigerweise als Alleinstellungsmerkmal
verkauft.
Jetzt schaffen einzelne CPU-Kerne mit weniger Taktfrequenz
teilweise deutlich mehr Rechenleistung als z.B. noch ein P4.

Das nenne eich mal einen „Durchbruch“.

Es gibt immer mehr Kerne, aber dennoch ist es nciht das
selbe…

Nein, das ist es sicher nicht.
Aber überall wo Paralellisierung sich gut machen läßt,
kann man dadurch deutlich die Verarbeitungsleistung
steigern. Der moderne PC mit seinen vielen Diensten und
Anwendungen, die parallel laufen ist dafür also schon mal
prädestiniert.
Dass GraKa deutlich mehr Rechenpower haben als
die Universal-X86-CPU verwundert da auch nicht.

Schon 2003 wurde großartig von IBM getönt dass es bin
in 1 Jahr, einen 1 THz CPU geben würde…

Ja, eine Zeitlang sah es so aus, als ob man die 10GHz
anpeilen wollte. Techn. möglich wäre das schon.
Sinnvoll offenbar nur unter bestimmten Bedingungen, die
aber bei PC offenbar eher nicht gegeben sind.
AMD ist damals aus dem Takt-Hype ausgestiegen und hatte
damit Erfolg.

Wie sieht es aus… was ist der ultimative beste CPU? Und wann
müssen wir mit einem Durchbruch rechnen?

???
Welcher Durchbruch???
Seit ca. 45 Jahren gilt das Moorsche Gesetz fast ungebrochen.
Dass es mal (in 10…20 Jahren) damit zu Ende geht, ist
aber abzusehen.
Man kommt früher oder später an absolute physikalische
Grenzen. Die Lichtgeschwindigkeit ist begrenzt und die
Strukturgrößen stoßen zumindest 2-dimensional auch an
die Grenzen (Atomgröße).

Seit „Graphen“ entedckt wurde, heisst es dass 26 GHz CPU’s
problemlos damit möglich seien, aber 26 GHz…die sin eh schon
längst überfällig, laut der Formel… nun müssten wir uns
langsam im THz Bereich bewegen.

??? Unreflektierte Laienvorstellungen!

Meldungen über neue tolle Materialien und neue Technologien
gibt es ständig. Die Einführung allerdings gegen die seit
ca. 50 Jahren etablierte Siliziumtechnologie ist nicht so
trivial. Dahinter stehen ganze Industrien, die komplett
neu aufbaut bzw. umgebaut werden müßten.
Von der Grundlagenforschung bis zur breiten Praxis dauert
es in der Regel ca. 25…30 Jahre.

Was du mit den 26GHz hast, weiß ich nicht.
26GHz als Schaltfrequenz war evtl. 1970 ein Thema, heute
forscht man mit üblicher Siliziumtechnologie im Bereich
von Sub-ps bzw. Frequenzen über 1THz.

Bei Standardtechnologie bewegt man sich längst im Bereich
von wenigen ps. Schaltfrequenzen, weit über 100GHz werden
längst praktisch angewendet.
Was aber die Taktfrequenz angeht, ist diese sehr von der
Architektur der Rechenstrukturen abhängig. Will man diese
unbedingt auf max. Takt züchten, hat das nicht unbedingt
allg. höhere Verarbeitungsleistung zur Folge.
Hauptproblem ist aber, dass mit der Taktrate der
EnergieverbrAuch progressiv ansteigt.

Es ist deshalb intelligenter, komplexere Strukturen mit
effizienter Verarbeitungsleistung zu entwerfen, die aber
mit geringerem Takt arbeiten.

Die Realisierung von hoch komplexen CPU mit deutlich gesteigerten Rechenleistungen hat aber Probleme, von denen
du gar nix weißt. Hauptproblem überhaupt ist das
Verhältnis von Rechnenleistung zu Energieverbrauch.

Da gibt es z.B. Projekte zum Erreichnung der der
Rechenleistung im Bereich von Exaflops ohne dass man
Strom eines ganzen Kraftwerkes dafür benötigt.
http://www.crn.de/hardware/artikel-83574-2.html

Bei der Technologie der Zukunft steht also gar nicht mehr
die Schaltgeschwindigkeit im Vordergrund, sondern die
notwendige Leistungsaufnahme in Bezug auf die Rechenleistung.

Gruß Uwi

Es gibt Stimmen von Enthusiasten…

Hallo,

Hallo @UWI,

Die würden sich beliebte Technologien rückwirkend als Neuauflage in neuester Fertigungstechnologie wünschen.
ich sehe diese Möglichkeit zwar unreal, aber durchaus interessant.

Aber es ist der Preis, den vermögende Individualisten dafür zahlen könnten.

mfg

nutzlos

„??? Unreflektierte Laienvorstellungen!“

Nein, tut mir leid, ich habe nur widergegeben was du auch, zum Beispiel im „Wunderwelt Wissen“ magazin nachlesenen kannst.

Somit ist dieser Kommentar doch schon etwas naja… Grenzwertig.

Ansonsten hat mir der Rest den du geschrieben hast, sehr gut gefallen!