Multi-Core CPUs - Allgemeine Diskussion

  • 604 Antworten
  • Letztes Antwortdatum
Die 25% weniger Verbrauch wurden bei fullhd Wiedergabe gegen chip x gemessen, das hat 0 Aussagekraft, da neue chips bei 1080p nicht mal ansatzweise Leistung bringen müssen, da braucht er natürlich kaum power, ein schwacher dualcore chip der da auf Volllast läuft kann schon mal etwas mehr brauchen.
 
Xeles schrieb:
Was regst du dich eigentlich so auf? Du scheinst massiv was gegen nvidia zu haben. Mir kommen deine Argumente verdammt seltsam vor. Du wetterst nur gegen den Hersteller. Vielleicht solltest du dich mal mehr erkundigen. Gegenüber vergleichbaren Prozessoren ist der Tegra 4 bis zu 25% sparsamer....

Mich regt es nur etwas auf, dass Nvidia bei jeder Generation neuen Mist verzapft, aber es nicht auf die Reihe bekommt, Konkurrenten wie Qualcomm vernünftig unter Druck zu setzen. Das ist alles. Wo hast du eigentlich die 25% her?

marco köhler;5243852 schrieb:
Die 25% weniger Verbrauch wurden bei fullhd Wiedergabe gegen chip x gemessen, das hat 0 Aussagekraft, da neue chips bei 1080p nicht mal ansatzweise Leistung bringen müssen, da braucht er natürlich kaum power, ein schwacher dualcore chip der da auf Volllast läuft kann schon mal etwas mehr brauchen.

Wenn es stimmt (dass Nvidia die Energieaufnahme unter 1080p-Videowiedergabe angegeben hat), wäre das typisches Marketing, wie es aber nicht nur Nvidia betreibt. Jeder halbwegs moderne SoC hat einen festen Videodecoder.
 
Jup, der Stromverbrauch wurde bei fullhd videowiedergabe gemessen und ist demnach schon als reine marketingangabe zu zählen.
 
Jetzt hab ichs auch gesehen; der Tegra 4 soll bei der Wiedergabe eines 1080p-Videos 950mW benötigen, "üblich" seien 1.2W. Das ist ja schonmal eine sinnvolle Verbesserung, aber nichts, was das ganze Ding allein und für sich viel besser macht. Immerhin braucht so ein 7-10"-Display auch viel Strom und man guckt nicht sechs Stunden am Stück Videos. Eine realistische Beurteilung könnte erst erfolgen, wenn man Werte beim Surfen und unter (Spiele)Last hat. Bei letzterem wird sicher gedrosselt wie blöd.
 
Xeles schrieb:
Was regst du dich eigentlich so auf? Du scheinst massiv was gegen nvidia zu haben. Mir kommen deine Argumente verdammt seltsam vor. Du wetterst nur gegen den Hersteller. Vielleicht solltest du dich mal mehr erkundigen. Gegenüber vergleichbaren Prozessoren ist der Tegra 4 bis zu 25% sparsamer....

Gesendet von meinem GT-N7100 mit der Android-Hilfe.de App

Ich kann dies teilweise aber auch nachvollziehen. Wer sich etwas über Nvidia erkundigt sieht schnell dass ausser viel Rauch nichts dabei ist. Nvidia zieht hier die gleiche Masche schon ab wie beim PC. Man protzt mit Superlativen, Zahlen, Daten & "Fakten" und bei genauerem hinsehen bzw. spätestens im Alltag merkt man dass nichts dahinter ist. Im Zahlen herum schmeissen ist Nvidia schon seit Jahren gut... ;)
 
  • Danke
Reaktionen: marco köhler
Naja, dann wär aber nix dahinter? Mit der GTX Titan hat Nvidia im PC bereich gezeigt, was sie können. Im Mobilbereich nicht. Bin enttäuscht, dass mehrere Spiele ruckeln.

------
Bisschen Wut ist gut fürs Blut
 
Mit der Titan muss ich zustimmen, denn sie ist schnell, leise und effizient. Allerdings könnten sie noch viel mehr, was im Moment allerdings kaum nötig ist. Der Preis ist aber auch:blink: Durch die Mondpreise selbst für Performance-GPUs fügen beide IHVs dem Gaming-Markt auch durchaus Schaden zu. Naja, ist hier allerdings Off-Topic.

Die Slides vom MWC sind aber auch höchst amüsant. Vor allem die Performancevergleiche mit dem Vorgänger, die Vergleiche bei der Effizienz/mm² und die Allgemeine Performance des T4 ohne Angabe der Stromaufnahme.
 
Noch schlimmer sind fast die Vergleichswerte der Konkurrenz die auf den news seiten in Tabellen Form verbreitet werden.
Die 56fps die der chip im 1080p offscreen egypt2.5 glbenchmarl test erreicht hat werden verglichen mit werten aus dem 2.1er, der nicht halb so anspruchsvoll ist und teils auch einfach falschen Ergebnissen. Naja ist eben die Qualität dieser großen news seiten, da wird sich wohl nie was dran andern.

Die 56fps sind dennoch sehr gut, sogar vor dem ipad mit 51. Jetzt bleibt noch abzuwarten, ob es bei so vielen pixel und shader Einheiten nicht zu abatimmungsschwierigkeiten kommt (hatte die nicht schon der tegra 3?) und damit mikroruckler trotz hohen fps.
 
Zusätzlich wird sich auch zeigen müssen, wie Tegra 4 in anderen Anwendungen skaliert, da das Front-End nicht verbreitert wurde, sondern lediglich durch den höheren Takt schneller ist. Und bei der Stromaufnahme habe ich, wie gesagt, die größten Vorbehalte. Allzu rosig kann sie bei 4 A15-Kernen sowieso nicht aussehen, und wenn es anders wäre, würde man sicher auch in anderen Szenarien als 1080p-Videowiedergabe damit protzen.
Nvidia hat auch irgendwie nicht ganz verstanden, wie der SFF-Markt funktioniert. Da kauft sich doch kaum jemand ein Phone oder ein Tablet, weil da ein Tegra drinsteckt, sondern weil es ein gutes Gerät ist (zu dessen Qualität der SoC natürlich beiträgt) oder schlicht weil es von Samsung etc. kommt. Und dann fängt Nvidia mit diesem unsäglichen Marketing an, das es so nur im PC-Bereich gab, und alle ziehen brav mit. :D

Edit: Nebenbei kann man natürlich auch Grey ordentlich klatschen, wenn man denn möchte. Er bleibt beim Single-Channel-Interface, dürfte daher desöfteren Probleme bei der Speicherbandbreite bekommen und auch nicht selten hinter dem S600 liegen. Dazu kommt er auch noch viel später (Ende des Jahres) und die Effizienz ist unsicher. Natürlich wird sich auch der S600 erst beweisen müssen, zumal da es beim APQ8064 einige Probleme mit der Laufzeit und Drosselung gibt, wobei diese wiederum nur bei einigen Geräten aufzutreten scheinen. Der Konkurrenzkampf wird spannend und ich hoffe ja, dass Nvidia größere Erfolge feiern kann, aber die Vorzeichen deuten in eine andere Richtung.
 
Zuletzt bearbeitet:
Mir kommt eh nur noch ein 800er ins Haus. Die 600er überzeugen nicht wirklich.
 
M!dN!ght schrieb:
Mir kommt eh nur noch ein 800er ins Haus. Die 600er überzeugen nicht wirklich.

Ganz meiner Meinung;)
 
Der S4 Pro/ S600 ist natürlich noch High-End, aber nicht mehr allzu lange. Er fällt eher in die Kerbe des Grey/4i, für den man Nvidia wirklich loben muss, was die Wahl der Kerne angeht.
 
@novacius
Für Herbst hat Qualcomm bereits den Snapdragon 800 angekündigt

Apropos ankündigen:
Nächster Tegra bereits Ende 2013

Die Kepler-GPUs will Nvidia auch in seine mit ARM-Kernen arbeitenden SoCs für mobile Geräte integrieren. Als Nachfolger des Tegra 4 ist dabei "Logan" vorgesehen, der schon Ende 2013 in großen Stückzahlen verfügbar sein soll. Wenn Nvidia das schafft, könnten erste Smartphones und Tablets bereits auf dem Mobile World Congress Anfang 2014 vorgestellt werden. Durch die Kepler-Architektur soll Logan auch mit Nvidias Programmierumgebung Cuda arbeiten können, und zusätzlich OpenGL 4.3 - nicht nur die ES-Version - beherrschen.
Auf Logan soll Anfang 2015 das SoC "Parker" folgen, das mit einer Maxwell-GPU arbeitet und erstmals für Nvidias Tegra-Serie mit FinFET-Transistoren hergestellt wird. Die ARM-Kerne sollen auf dem Projekt Denver basieren, um das es seit seiner Ankündigung still geworden ist. Die Denver-Kerne sollen laut ARM auf der neuen Architektur V8-A basieren, die 64-Bit-fähig ist. V8-A gilt als Nachfolger der aktuellen Cortex-A15-Kerne, mit denen auch Nvidias Tegra 4 arbeitet.
Quelle: Nvidia-Roadmap: GPUs mit 1 TByte/s und Kepler für Smartphones - Golem.de

Tegra-Roadmap.png
 
Geht doch, damit wird Nvidia endlich eine angemessene GPU-Architektur im Tegra aufbieten können, andererseits gibt man sich damit auch einer gewissen Lächerlichkeit preis. Erst groß rumtönen, dass Unified Shader und GPGPU-Kompatibilität ja absolut nicht nötig seien, und jetzt sie als großen Heilsbringer vermarkten. Durch den frühen Launch von Logan versetzt man dem Tegra 4 außerdem den Todesstoß. Naja, was solls, Logan wird wenigstens ein anständiger Chip, wobei er "dank" 28nm natürlich keine Riesensprünge hinlegen kann, ganz gleich, was versprochen wird. 20nm ist zumindest in einem desolaten Zustand und für einen Launch in 2014 kaum zu gebrauchen. Und die anderen Firmen werden auch nicht pennen, damit dürfte Logan ein Chip unter vielen werden. Der PC-Markt ist am rumkriechen und wird mit sinkenden Umsätzen zu kämpfen haben, da geht wenigstens im SFF-Geschäft die Post ab. Ich bin gespannt, wie lange Nvidia durchhält. Ihre monopolartigen Allmachtsphantasien, von wegen alle Displays befeuern etc darf man getrost als Wunschdenken abhaken. :D
 
Der Tegra 4 scheint eh schon "tot" zu sein - keine Ankündigungen weit und breit
 
Hallo,
habe gelesen, daß der Snapdragon S4 auf 2,3Ghz taktbar ist; ist da was dran?
mfG
 
2,4 sind sehr unwahrscheinlich. Lange nicht alle Nexus 4 schaffen 1,9GHz...
Der neue Snapdragen 800 kommt dann so hoch.
 
  • Danke
Reaktionen: Patman75
Patman75 schrieb:
Hallo,
habe gelesen, daß der Snapdragon S4 auf 2,3Ghz taktbar ist; ist da was dran?
mfG

Beim S4 in meines Damaligen HTC One S war bei 2,1ghz Feierabend.
 
  • Danke
Reaktionen: Patman75
Wieso wollt ihr es höher takten? Ist ja jetzt schon hoch genug. Sogar mehr als man durchschnittlich bräuchte.
Höherer Takt würde in dem Fall auch bedeuten, dass der Akkuverbrauch steigt. Das merkt man spätestens dann, wenn das Gerät sehr warm wird um nicht zu behaupten sehr heiß.
Nach dem Motto "Schau mal, ich kann mein Smartphone in wenigen Sekunden in ein Stück Kohle verwandeln". Diese Beeindruckende Show bringt mit Sicherheit die Anerkennung innerhalb Clique.

Gesendet von meinem Nexus 7 mit der Android-Hilfe.de App
 

Ähnliche Themen

ses
Antworten
9
Aufrufe
2.032
habehandy
H
elementz89
Antworten
1
Aufrufe
1.261
rene3006
R
P-J-F
Antworten
1
Aufrufe
1.677
oggy
O
Zurück
Oben Unten