Seite 1 von 2
CPU vs GPU
Verfasst: Sa Dez 27, 2008 3:17 pm
von nufan
Früher waren die Rollen immer klar verteilt - doch in letzter Zeit verschwinden die Grenzen zwischen CPU und GPU.
Mittels WARP ist es möglich einen GPU komplett zu simulieren. Etwas ausführlicher wird dies
hier erklärt (wobei ich Crysis als Gradmesser nicht angebracht finde...).
Andererseits übernimmt der GPU immer öfters Berechnungen des CPUs, da er viel schneller ist. Mittels PureVideo (Nvidia) wird der CPU bei Multimediaanwendungen entlastet. Aber auch bei anderen Anwendungen, die früher als reine CPU-Arbeit galten, ersetzt der GPU langsam den CPU, siehe
hier.
Wird der GPU langsam den CPU ersetzen? Oder ist es doch umgekehrt?
Was haltet ihr davon?
Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 3:29 pm
von Dirty Oerti
Da weder die GPU die CPU, noch die CPU die GPU ersetzen kann denke ich, dass es zwei verschiedene Richtungen gibt, in die sich das entwickeln kann.
Entweder wird der Computer an sich ein zentralisierteres System werden. D.h. aus CPU und GPU wird ein einziger Baustein.
Oder es wird zu einem dezentralisiertem System auswachsen, also viele Einheiten, die dynamisch entweder zur Grafik- oder zur normalen Berechnung verwendet werden können.
Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 3:42 pm
von Jside
Naja, die GPUs machen ja nur Grafik Berechnungen(Physik & Co), und können diese ja auch gleich Visualisieren, somit geht das ja schonmal schneller, als wenn der CPU das berechnet, und zur Grafikkarte sendet...(Mal davon abgesehen, das dann erst alle Elemente(Objekt, Texturen & Co)zusammengefügt werden müssten, während der GPU diese in einem Zug zusammen berechnet)... Wobei der CPU ja auch so schon genug zutun hat, wenn ein Computerspiel läuft...
Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 4:00 pm
von nufan
Dass das eine das andere komplett ersetzen kann glaube ich auch nicht wirklich.
BTW: Es gibt seit kurzem viele neue Nvidia-Treiber (Auch für Mobile-GPUs).
Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 5:25 pm
von cloidnerux
Die GPU kann niemals den CPU ersetzten.
Die GPU ist nur schneller, wenn die daten, die die GPU verarbeiten muss alle gleich sind, dann kann die GPU (je nach TYp) bis zu 300 Rechnungen gleichzeitig machen. Bei 3D Grafik z.B ist das so, da dort nur float-rechnungen gemacht werden, kann die GPU die Volle leistung erzielen.
Aber wenn jezt verschiedene Daten verarbeiten muss, z.B int-berechnung und float-berechnung, werden diese nurnoch hintereinader gemacht, sodass die GPU nurnoch 0,5 % der Leistung hat. Und ,bei solcher nutzung kommt auch die bis um 80% gesengte Taktfrequenz ins Spiel => noch weniger Rechnungen.
Der CPU aber, ich gehe jezt von einem Dual-Core aus, kann immer zwei Daten auf einmal berechnen, egal welchen Typs. Das heißt, die leistung bleibt konstant.
Im Office use, werden immer unterschiedliche Daten kommen, textverarbeitung char-berechnungen, Musik-Player ints usw. da würde ein GPU nur Bremsen.
Aber wenn es jezt darum geht Filme zu decodieren, kommt die GPU auf turen, da dort immer gleiche daten kommen. Da wird die GPU wider schneller als der CPU.
Alles in allem, wird man nicht auf den CPU verzichten können.
Aber man kann hoffen, das die GPU noch mehr aufnahmen übernehmen kann, sodass die Grafikkarte nicht immer Ungenutzt bleibt.
Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 10:29 pm
von Dirty Oerti
Da hast du neuste Entwicklungen nicht mitbekommen
Es wird bald eine GPU geben, die mit ca 64 Kernen ( 64 Core ^^ ) und 2048Bit kommt.
Die kann 64 Dinge gleichzeitig verarbeiten.
Die CPU bekommt auch immer die selben Daten. Immer Integer.
Die Floatberechnungen macht meist der Math. Coprozessor. Und wenn nicht, dann wird das Float nur "vorgespielt".
Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 10:35 pm
von nufan
Dirty Oerti hat geschrieben:Es wird bald eine GPU geben, die mit ca 64 Kernen ( 64 Core ^^ ) und 2048Bit kommt.
Vielleicht kann man damit schon Crysis auf höchster Auflösung und mit allen Details spielen
Dirty Oerti hat geschrieben:Die CPU bekommt auch immer die selben Daten. Immer Integer.
Die Floatberechnungen macht meist der Math. Coprozessor. Und wenn nicht, dann wird das Float nur "vorgespielt".
Wird das intern nicht als Integer behandelt und zusätzlich noch Mantisse und Exponent gespeichert? Also quasi Exponentialdarstellung?
Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 10:44 pm
von Dirty Oerti
dani93 hat geschrieben:Vielleicht kann man damit schon Crysis auf höchster Auflösung und mit allen Details spielen
Wahrscheinlich nicht
dani93 hat geschrieben:Wird das intern nicht als Integer behandelt und zusätzlich noch Mantisse und Exponent gespeichert? Also quasi Exponentialdarstellung?
Genau so wirds gemacht

Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 10:59 pm
von nufan
Jetzt fällt mir ein, das hatten wir ja schon
hier.
Dirty Oerti hat geschrieben:Wahrscheinlich nicht

Vielleicht mit ein bisschen Übertakten und Stickstoffkühlung wie
hier
Aber wahrscheinlich nicht einmal dann
Dirty Oerti hat geschrieben:Genau so wirds gemacht

Doch noch was vom letzten Jahr hängen geblieben

Re: CPU vs GPU
Verfasst: Sa Dez 27, 2008 11:08 pm
von cloidnerux
Vielleicht mit ein bisschen Übertakten und Stickstoffkühlung wie hier
Super, dann hat man ein Computer mit 64 Grafikkernen, mit dem man die verteilung der Quarks in einem proton errechnen kann und eine Stunde Betrieb
1.000.000 Euro Kostet. Was solls?
Man hat einen schnellen Rechner.