Techtalk 4 Noobs – Was zum Geier heisst das Techblabla?

Home Foren Games-Talk Techtalk 4 Noobs – Was zum Geier heisst das Techblabla?

Ansicht von 15 Beiträgen - 1 bis 15 (von insgesamt 45)
  • Autor
    Beiträge
  • #900574
    captain carotcaptain carot
    Teilnehmer

    Immer wieder lustig, immer wieder ein heißes Thema. Eine neue Konsole wird angekündigt und es wird fleißig über die Power oder auch die Powerlosigkeit der Hardware diskutiert. Zumindest Nintendo versucht seit einiger Zeit, solchen Diskussionen aus dem Weg zu gehen. Das sorgt allerdings in der Praxis nur für massig Gerüchte.
    Lahme Hardware? Was zu verbergen? Oder verstehen 95% der Spieler doch nur Bahnhof?

    Speicherbandbreite, Taktrate, GFLOP/s, Füllrate, was davon heisst eigentlich was, was bedeutet vllt. auch gar nicht so viel und was ist wichtiger als gedacht?

    Braucht es 16GB RAM oder doch nur 4, was sind Shadereinheiten und wie viele Prozessorkerne sind wichtig?

    Da wir von der Wii U nur begrenzt viel wissen, von der PS4 nicht alles und von der neXtBox noch nicht wirklich was könnte ein wenig Licht im Hardwaredunkel nicht schaden. Das ist ziemlich trockenes Zeugs, deswegen werde ich das kurz und sehr vereinfacht halten, ganz tief in die Materie vorzudringen wäre selbst mir zu langweilig und manchmal auch zu hoch. There´s always a bigger crack.

    Folge 1: Wii U
    Nintendos Secret. Aber warum eigentlich? Lahm, Uralttechnik, geht es nach so manchem Fußballtrainer unter den Spielern, dann verbirgt Nintendo seine Hardware so gründlich, weil die ganz furchtbar alt, lahm und mies ist. Aber ist das wirklich so? Oder interessiert sich nur eine kleine Gruppe Freaks wirklich für die Hardware während sie für den Rest entweder irrelevant oder mangels Sachkenntnis völlg fehlinterpretierbar ist?

    Alle Einschätzungen meinerseits (und auch vom Rest der Hardcorecracks) basieren auf inoffiziellen Daten und Gerüchten. Entsprechend kein Anspruch auf Richtigkeit!

    Weil der dem Namen nach mittig sitzt widmen wir uns erstmal dem angeblich ach so lahmen und alten Prozessor. Maue Taktrate von 1,24GHz, winzig kleine Die-Fläche und Uralttechnik, ist ja PowerPC750 basiert und damit vom Ende der Neunziger. Das kann ja nix sein, oder doch?
    Tja, die Sache mit dem Alter. Das Ding basiert tatsächlich auf einem vor 16 Jahren vorgestellten, damals hochmodernen Prozessordesign. Und nein, das macht erstaunlicher Weise nix, es heisst nicht mal, dass der Chip langsam ist. Kennt jemand Intels Core Prozessorreihe? Die ist in vielen Punkten auch nur ein aufgebohrter Pentium 3!
    Es kommt mehr darauf an, was Nintendos Espresso, wie der Zwerg heisst, sonst so kann. Das hängt primär davon ab, was Nintendo und IBM hier an neuen Befehlssätzen integriert haben. Man kann nämlich an einen alten Chip “anbauen”. Bereits beim Gamecubeprozessor wurden neue Instruktionssätze integriert, die gerade Spielen und 3D Grafik zu Gute kommen. Und auch Core 2, Core i und wie die ganzen PC-Prozessoren heißen profitieren meist primär von neuen Befehlssätzen.

    Alt ist also nicht unbedingt alt. Alt kann sogar manchmal ziemlich neu sein. Leider kennen wir eben genau diese “Anbauten” nicht, man kann aber davon ausgehen, dass Espresso gründlich renoviert wurde.

    Aber warum? Die Antwort ist erstaunlich und doch einfach. Prozessoren haben nicht nur eine Leistung sondern auch eine Leistung pro Watt (soundsoviel PS bei soundsoviel Verbrauch könnte man sagen). Und bei der Leistung pro Watt ist dieser Uraltprozessor immer noch sehr gut dabei.
    Praktisch ist auch, dass Wii U damit automatisch abwärtskompatibel ist.

    1,24GHz? Aber PS3 und 360 sind doch viel schneller? Einfach gesagt, die Taktrate sagt eigentlich nix über die Geschwindigkeit aus. Und, es wird sogar gerne dabei geflunkert. Die XBox 360 hat 3,2GHz, richtig? Falsch. Es hängt davon ab, was sie gerade macht. Bei so genanntem Multithreading (d.h. jeder Prozessorkern rechnet an zwei Sachen gleichzeitig) bricht die Taktrate der 360 CPU um 50% ein, die rödelt mit 1,6GHz vor sich hin.
    Multithreading geht übrigens auch bei unserem kleinen Espresso. Ohne gravierende Einbrüche, wie es scheint. Dazu gibt es interessante Dokumente von IBM, die sich mit “alten” PowerPCs beschäftigen.

    Und was noch? Eine Menge. Es ist z.B. wichtig, wie viele Aufgaben pro Takt ein Prozessor bearbeiten kann, sogenannte IPC (Instructions per cycle). Viele Aufgaben in einem Abwasch ist nachvollziehbar besser als wenige Aufgaben auf einmal zu bewerkstelligen. Aus einer Reihe von Gründen kann Espresso sowas ziemlich gut.
    Out of Order, nein, das heisst hier nicht außer Betrieb sondern außer der Reihe. Auch eine nützliche Kleinigkeit. Espresso kann Befehle bei Bedarf einfach in einer anderen Reihenfolge abarbeiten als es ihm vom Programm gesagt wird. Das kann massig Wartezeiten reduzieren. PS3 und 360 können das übrigens nicht. Die arbeiten “in Order”, was häufiger mal zu besagten Wartezeiten führt.

    Aber die GFLOP/s, die sind doch wichtig? Jein. Dieser Wert ist ziemlich theoretischer Natur. Und er hängt auch noch davon ab, was der Prozessor macht. Je nachdem hat er gar keine oder viel Aussagekraft. Unser superschneller Cell aus der PS3 ist z.B. sehr gut darin, Videos zu encodieren. Wann hat das mal einer von uns auf der PS3 gemacht? In anderen Fällen liegt er wieder weit HINTER einem Core 2 Duo mit einem Zehntel der Fließkommaleistung.

    Und warum ist Espresso so pupswinzig? Kleine Prozessoren taugen nix.
    Die Antwort ist erstaunlich einfach. Bei fast allen modernen Prozessoren braucht den meisten Platz auf dem Prozessor der sogenannte Cache-Speicher. Meistens ist das SRAM. Für den sogenannten L2 Cache nutzt Espresso aber eDRAM. Und eine DRAM Speicherzelle ist viel kleiner als eine SRAM Speicherzelle. Es ist nur ziemlich schwierig, DRAM und sogenannte Logikeinheiten zu kombinieren.

    Last but not Least: Die sogenannte Strukurbreite bestimmt ebenfalls über die Prozessorgröße. Dabei wird, vereinfacht gesagt, die Größe eines Transistors bestimmt. Vermutlich hat Espresso 45nm große Transistoren. Nur, ganz sicher ist das eben doch nicht. Es könnte auch alles ein wenig kleiner sein. 32nm zum Beispiel. Dann würden deutlich mehr Transistoren auf den Chip passen und weil wir wissen, wie groß der Cache ist wären alle anderen Transistoren Recheneinheiten.

    Nein. irre schnell ist Espresso nicht. Aber ziemlich effizient. Und eben keineswegs uralt, auch wenn er auf eine lange Geschichte zurückblickt. Es gibt eben weit mehr, als nur hohe Leistung.

    RAM
    Es scheint so einfach. Viel RAM ist gut und viele Gigabyte pro Sekunde sind noch besser. Ätsch, stimmt beides nicht. Zumindest nicht so. Bei der Speichergröße hängt es schon viel davon ab, wie viel das System insgesamt, also GPU und CPU damit anfangen können. Insofern kann man ganz doof sagen, Wii U braucht nicht mehr RAM. Aber die Geschwindigkeit, die ist wichtig, oder?
    Ist sie. Nur gibt es mehr als Datenübertragungsrate. Es gibt auch sogenannte Latenzen. Und hohe Latenzen sorgen dafür, dass der Prozessor oder die GPU oft auf Daten warten muss, bevor die dann schnell übertragen werden. Ein bisschen ist das wie ein ICE mit reichlich Verspätung. Und so einen ICE mit Verpätung gab es z.B. beim N64. Das hatte superschnellen RAMBUS RD-RAM mit 500MB/s Übertragungsrate und elendig hohen Latenzen, also unseren Verspätungen. Die Latenzen verrät uns kein Konsolenhersteller. Die Übertragungsrate ist aber nicht alles.
    Und wie schnell ist Wii U´s RAM? So oder so nicht übermäßig schnell. Allerdings vielleicht schneller als viele glauben. Die Geschwindigkeit setzt sich aus Busbreite und Taktrate zusammen. Je breiter der Bus (Datenautobahn mit vielen Spuren), desto mehr Infos kommen gleichzeitig an. Dann gibt es die Taktrate. Wie breit unsere Wii U Autobahn ist lässt sich aus der Speicherbestückung ableiten. 64 Bit. Die Taktrate gibt an, wie schnell unsere Daten-LKW´s ankommen. Und hier gibt es widersprüchliche Infos (alias Gerüchte). Genau eine PErson hat behauptet, dass Wii U DDR3 RAM verwendet, das mit 1600MHz taktet. Mittlerweile behaupten aber gleich mehrere Personen, dass das gar nicht stimmt, die Wii U GDDR5 verwendet (das magische Superzeug aus der PS4) und damit effektiv 3200MHz Speichertakt hat. Der Unterscheid sind 12,8GB/s gegenüber 25,6GB/s Speicherbandbreite. Letzteres ist auch nicht so viel, aber für die CPU schon mal mehr als genug. Für die GPU reicht das wegen einer Kleinigkeit vermutlich auch aus. Dazu kommen wir später.
    Warum nur 64Bit? Das hat eine Reihe Gründe. Da wäre die Größe der Speicherchips, die gewisse Vorgaben macht, die Komplexität und damti die Kosten für das Mainboard und eben die Frage nach dem Bedarf. Doppelt so schneller Speicher heisst nicht dass alles doppelt so schnell geht. Das bringt mal viel, mal gar nichts.

    Speicher also genug und anscheinend moderner, als viele glauben. Ach ja, und so wie es aussieht auf Effizienz getrimmt, schon wieder.

    Audio-Prozessor: Oh, mittlerweile fast schon eine Besonderheit. Die Wii U hat einen richtigen Audioprozessor. Bei PS3 und 360 macht das die CPU. Man kann davon ausgehen, dass PS4 und neXtBox aus Kostengründen ebenfalls auf einen richigen Audioprozessor verzichten. Warum macht Nintendo das nicht? Einfache Antwort: Der Audioprozessor kann die CPU mehr oder weniger stark entlasten. PC-Spieler kennen das vllt. noch von der Audigy oder der X-Fi Soundkarte. Wie stark die Entlastung jeweils ausfällt hängt davon ab, was der Soundprozessor alles ohne den Hauptprozessor erledeigen kann und natürlich auch von der Leistungsfähigkeit des Hauptprozessors. Nichts desto Trotz ist das ein netter kleiner, waschechter Vorteil. Und übrigens kein antiquierter.

    Grafikprozessor: Der heisst bei Wii U Latte. Und auch der Kollege ist nicht der schnellste seiner Art. Aber ist er alt? Und wie langsam ist er eigentlich? Da gibt es mehrere Dinge zu beachten.
    Zuerst einmal das sogenannte Shader Model. Neuere Shader Model Versionen können mehr und können viele alte Dinge auch effizienter. Ich werde meine Hand dafür zwar nicht in´s Feuer legen, aber anscheinen hat unser Cafe Latte Shader Model 5. Im Prinzip ist das genau der technische Stand, den auch die GPU´s der anderen beiden Next Gen Konsolen haben werden. Also nicht sehr alt. Und deutlich weiter, als PS3 und 360 mit Shader Model 3 (plus ein bisschen).
    Dann haben wir die Taktrate und die Shadereinheiten. Beide zusammen bestimmen, wie viel Shaderleistung Wii U in etwa hat. Um es einfach zu machen, es sind 50% mehr Shader als bei der Box und 10% mehr Taktrate. Das ergibt erstmal 65% mehr Leistung. Aber mit einem gewissen Effizienzbonus. Nicht ganz unwichtig aber auch nicht so wichtig, die Füllrate. Anscheinend kann Latte “so viele texturen gleichzeitig malen” wie Xenos, nur minimal schneller. Macht 10% mehr Leistung. Enttäuscht? Wichtig ist auch, wie viele Shadereffekte auf eine Textur verballert werden können, und das sind hier viel mehr.
    Dann wären da einige Bonbons. Da wären z.B. 32MB embedded RAM. Der ist sehr schnell und kann die wichtigsten Bilddaten eben schnell bearbeiten. Das reicht z.B., um ein 720p Bild mit hochwertigem Anti Aliasing (gegen Treppcheneffekte) zu bearbeiten.
    Von solchem embedded RAM hat z.B. auch der Grafikprozessor der 360 profitiert, nur waren das deutlich weniger.

    Ein anderes Thema ist das ominöse GPGPU, d.h. die GPU kann angeblich alles Mögliche. Das gilt auch für PS4 und neXtBox, weil jede aktuelle GPU das kann und GPU´s können bestimmte Sachen zwar sehr schnell, andere aber nur sehr langsam. Die GPU kann also nur in bestimmten Situationen den Prozessor entlasten. Das kostet dann aber (in jedem Fall) Grafikleistung.

    Schnell ist unser Latte also auch wieder nicht. Aber modern und effizient.

    Ist Wii U nun High End oder nicht? Das hängt ein bisschen vom Blickwinkel ab. Bei der reinen Leistung ist die kleine Kiste, wie man hoffentlich nachvollziehen kann, erst mal nicht beeindruckend. Sehr wohl beeindruckend ist allerdings die Effizienz. Die kaffeebar braucht für Assassins Creed 33W in einer Optik, die auf so ziemlich jedem aktuellen Notebook 65W oder mehr benötigt, auf der neuesten Version von PS3 und 360 ca 75W und auf den Ursprungsmodellen 180W.

    Anders ausgedrückt, Wii U ist ungefähr auf dem gleichen Level wie neXtBox und PS4. Nur eben nicht High Power sondern High Efficiency.

    #1121891
    genpei tomategenpei tomate
    Teilnehmer

    Captain, weiß nicht wo du die Zeit genommen hast dieser Text zu verfassen, aber ich danke dir vielmals für deine Mühe ( Klingt alles mühelos was du zusammengetragen hast, sprich, als wärst du “eins” mit der Materie ;-)).
    Es ist mir eine Freude , in verständlicher Sprache zu lesen was es nun mit der kleinen Kiste auf sich hat, die seit n paar Monate meine Sammlung bereichert. Vielleicht kommt auch für dich das eine oder andere spiel heraus, das dich zum kauf animiert.
    Gruß

    #1121892
    captain carotcaptain carot
    Teilnehmer

    Früher oder später, sicher. Ich hoffe, das ist verständlich. Dann kann ich ggf. auch noch PS4 und neXtBox auseinandernehmen.

    #1121893
    7up7up
    Teilnehmer

    Danke Captain. Also ich finde es so wie du’s erklärt hast verständlich und interessant. ;)
    Wenn mal genaueres über ps4 und xbox bekannt ist, solltest du das auf jeden fall wieder machen :D

    #1121894
    IKARUDENSHINIKARUDENSHIN
    Teilnehmer

    Sehr schön geschrieben und mit guten Beispielen verständlich erklärt. Hat die 360 nicht 8MB eram?

    #1121895
    captain carotcaptain carot
    Teilnehmer

    Nein, sind “krumme” 10MB embedded RAM. Embedded bedeutet eben, dass der RAM auf der GPU integriert ist. Das ist übrigens nicht mal so neu. Die PS2 hatte ihre 4MB gesamten VRAM auf dem Grafikprozessor integriert und für damailige Verhältnisse war der irre schnell. Das lag nicht an der Taktgeschwindigkeit sondern an einem sehr breiten Datenbus (also die vielen Daten-Autobahnspuren).
    Ein großer Unterschied ist, dass die Box ihren embedded RAM nur für´s Anti Aliasing des fertig berechneten Bildes verwendet. Texturdaten müssen aus dem langsameren Hauptspeicher geladen und auch dort rein geschrieben werden.

    Bei der Box passt auch je nach Auflösung kein ganzes Bild am Stück da rein. Bei der Wii U ist je nach Auflösung noch massig Platz frei. Insofern wäre es interessant zu wissen, ob die 32MB auch noch anderweitig genutzt werden “dürfen”.

    #1121896
    Digger BoomshotDigger Boomshot
    Teilnehmer

    Dieser Thread sollte Pflichtlektüre für die M!-User werden.

    #1121897
    WichtgestaltWichtgestalt
    Teilnehmer

    Muss zu meiner Schande gestehen, dass der Thread hier bis eben an mir vorbeigegangen ist.
    Wenn jetzt noch der eine oder andere User aus den Nintendo-News mal hier reinschauen würde, wäre da die ganze Diskusion vielleicht auch wieder etwas sachlicher.

    #1121898
    Bastian 1984Bastian 1984
    Teilnehmer

    Ich hab mir vorgenommen, jedesmal wenn Unsinn bezüglich der Specs der WiiU gepostet wird, dass hier zu posten. Vielleicht hilfts ja, und Karottchens Mühe soll nicht umsonst sondern schlicht gratis gewesen sein.

    #1121899
    Anonym
    Inaktiv

    Hab den Thread heute erst gelesen und find ihn sehr gut, hätte nicht gedacht, dass die Wii U doch viel viel besser sein kann als mein vielleicht glauben möchte.

    #1121900
    genpei tomategenpei tomate
    Teilnehmer

    @Captain, ist es zu Früh für eine Ps4 Sezierung?
    Sony hat doch glaub ich alles gleich offengelegt, oder meinst Du da ändert sich noch was an den Tech.Spezi.?
    Gruß

    #1121901
    7up7up
    Teilnehmer

    Ich glaub sony hat im grunde fast gar nix offengelegt. Die Spezifikationen haben sich auf 5 GB Ram beschränkt…

    #1121902
    captain carotcaptain carot
    Teilnehmer

    Zur GPU der PS4 ist nicht wirklich was bekannt. Es gibt da offiziell bisher nur die Angabe der 1,8TFlops. Das ist halt ein bisschen so, wie zu sagen, unser Auto hat 400PS. Deswegen kann man noch lange nix über die tatsächlichen Fahrleistungen sagen.

    Ich gehe ganz schwer davon aus, dass es eine Mittelklasse-GPU aus AMD´s nächster Radeon Generation wird, in Einzelpunkten kann sich deswegen sehr viel zu aktuellen AMD GPU´s ändern. Wenn z.B. der Tesselator deutlich schneller und effizienter als bisher arbeiten sollte als bei der Radeon 7000 Reihe, dann wird auch die Leistung in Spielen besser ausfallen als bei einer Radeon 7×00 mit gleicher Fließkommaleistung. Spart die PS4 GPU an Textureinheiten gegenüber einer PC-GPU (solche Anpassungen sind möglich), dann fällt allerdings die Texturleistung wieder geringer aus.

    Am Bekanntesten ist derzeit RAM und CPU. Speichertimings und Latenzen erfährt man bei Konsolen zwar eh nie, die PS4 dürfte hier aber einerseits reichlich haben, andererseits muss sie deswegen nicht zwingend schneller sein als eine neXtBox mit DDR3.

    Der Prozessor ist ein mehr oder weniger dem Standard entsprechender Jaguar. Massiv parallel aber langsam getaktet. Prima, wenn die entwickler entsprechend gut parallelisieren können, schlecht, wenn nicht stark parallelisiert wird. Ein Knackpunkt könnte da noch der Cache werden.

    Dazu Fragen wie wie viel RAM reserviert das OS für sich, wie effizient wird die neue API (anfangs) wirklich. Wirklich viel weiß man bei Sony also auch nicht.

    #1121903
    genpei tomategenpei tomate
    Teilnehmer

    @Grazie Capitano!
    Bin erleichtert zu hören dass im Endeffekt doch nicht soviel preigegeben wurde, Anfangs schien es für mich als Noob ( paßt nun mal hier im Thread rein… ;-) als hätte Sony auf der Pressekonf. ein wenig Striptease gespielt….

    #1121904
    FuffelpupsFuffelpups
    Teilnehmer

    Sehr schln geschrieben. (^_^)

Ansicht von 15 Beiträgen - 1 bis 15 (von insgesamt 45)
  • Du musst angemeldet sein, um auf dieses Thema antworten zu können.