PlayStation 4

34
62

Bei der Präsentation der PS4 ließ sich Sony sicherlich nicht in jedem Punkt in die Karten schauen. Zu der Frage nach einer eventuellen 4K-Auflösung bezog man jedoch gegenüber Joystiq klar Stellung.

Laut SCEE-Präsident Shuhei Yoshida werde sie nur in Videos und Filmen geboten, sofern diese ursprünglich für eine entsprechende Auflösung optimiert worden seien. Die Entscheidung kommt nicht sonderlich überraschend, weil entsprechende Fernseher ohnehin noch länger eher die Ausnahme sein dürften und die Spiele-Entwicklung so noch viel teurer ausfallen würde.

34 Kommentare
neuste
älteste
Inline-Feedbacks
Alle Kommentare anzeigen
captain carot
24. Februar 2013 23:41

Wobei MS sowieso viel Zeug entwickelt, Die hatten vor Jahren auch einen “”Tablettisch-Computer””, das muss nicht immer was im Konsumentenbereich sein.

Bastian 1984
24. Februar 2013 20:50

[quote=captain carot]

Wie viel Fernseher bekommt man untergebracht, ohne das ganze Wohnzimmer voll auf den TV zu optimieren?

[/quote]MS hat da ja schon extreme Antworten:[imgcomment image[/img][youtube]CsoIKPkbCag[/youtube]Warum eigentlich nur das Wohnzimmer, warum nicht gleich das ganze Leben?[youtube]QAFGUEUVweU[/youtube]In dem Buch, das als Vorlage diente, sind tatsächlich die kompletten Wände Fernseher, zumindest bei jenen die es sich leisten können.

captain carot
24. Februar 2013 20:25

Wie viel Fernseher bekommt man untergebracht, ohne das ganze Wohnzimmer voll auf den TV zu optimieren?Und 4K bei etwa einem 64″” ist so wie FullHD bei einem 32″”. Wer erkennt den blind auf 3,5m den Unterschied zwischen FullHD und einem guten PAL-Bild (naja, LCD´s fallen da für PAL flach). Sauber skaliert wird es dann ebenfalls schon schwer, den Unterschied etwa zwischen einer gut gemachten DVD und einer BluRay zu erkennen.60FPS erkennt man dagegen normalerweise sofort. Falls nicht etwa der Fernseher mit Frame Interpolation dazwischenfunkt.Interessant wär´s wie gesagt für Passiv 3D, da hätte man selbst bei Side by Side Verfahren volle HD-Auflösung.

Wichtgestalt
24. Februar 2013 19:54

Muss sagen, dass mich 4k nicht die Bohne interessiert. Aber gut, ich erkenne auch meist keinen Unterschied zwischen 30 und 60 fps sowie 720 und 1080 p, vielleicht brauche ich auch einfach nur eine neue Brille^^.

extremo
24. Februar 2013 19:36

Ersten mal macht ein 4K oder gar 8K Fernseher erst ab 1.50 m Diagonale wirklich sinn (was ja wirklich praktisch keiner braucht) und zum Anderen wird es bestimmt noch 5 bis 10 Jahre gehen bis 4K / 8K TV’s wirklich massenmarkttauglich sind (Preis).

captain carot
24. Februar 2013 12:10

Beim Streaming hat man halt meist auch das Problem der Bitrate, HD mit mieser Bitrate bringt nicht wirklich viel, dann gibt´s diverse Kompressionsverluste.4K beim Fernseher ist eigentlich nur Passiv 3D interessant oder wenn man sehr nah an einem sehr großen Fernseher sitzt. Im Kino ist, gerade bei 3D 2K Standard. Es gibt fast kein Kino auf der Welt, das 3D in 4K bietet. Bestenfalls 2D Filme sieht man in 4K. Lustigerweise war gerade beim Hobbit das superscharfe Bild einfach durch die höhere zeitliche Auflösung bedingt.Was die Auflösung an bei Spielen sich angeht, da spielen diverse andere Dinge eine Rolle, wie die Engine mit der Auflösung skaliert. Für die doppelte Auflösung braucht es nicht unbedingt die doppelte Rechenleistung. Auch GPU-seitig nicht.

Xtremo
23. Februar 2013 13:47

[quote=fallibart]

phu, gott sei dank. danke für eure hilfe.
sagt mal wenn die neue zockmaschine 1080p darstellen wird und man diese selbst auf 720p runter stellt , sollte es doch eigentlich mit mehr frames laufen da weniger zu rechnen.
oder sind die ‘gedeckelt’?

[/quote]Theoretisch sollte es – je nach Spiel und Engine – bei einigen Titeln durchaus möglich sein, ein Spiel, welches in 1080p bei 30fps läuft, bei 720p mit 60fps darzustellen. Allerdings wird das wahrscheinlich kein Entwickler umsetzen.Schließlich wird die “”niedrige”” Framerate bei einigen Spielen in die Programmierung miteinbezogen. Schaltet man bspw. bei der PC-Version von [b]GTA Vice City[/b] den Framerate-Limiter aus, kommt das Texturstreaming nicht hinterher, was in vermatschter Umgebungsgrafik resultiert.Warum das außerdem nicht bei allen Spielen funktioniert? Das liegt daran, dass eine reduzierte Auflösung zwar der GPU mehr Luft lässt, aber die CPU kaum bis gar nicht entlastet. Läuft ein Spiel demnach aufgrund ausgelasteter CPU mit maximal 30fps, wird ein Runterschrauben der Auflösung daran nichts ändern – KI, Physik etc. bleiben schließlich gleich. Ein sehr gutes Beispiel aus dem PC-Sektor wären die [b]Anno[/b]-Spiele. Bei diesen wird die Framerate in der Regel eher von der CPU limitiert, als von der Grafikeinheit.Dazu ein kleiner Fun-Fact: [b]Tomb Raider Legend[/b] läuft auf der XBOX 360 nur in 480p flüssig. Bei 720p ist die Framerate sehr instabil.[quote=Bastian 1984]

Mich würde ja interessieren, ob sie 4K auch streamen kann. Vor allem wegen des “”Hintertürchens”” Cloudgaming.

[/quote]Ich würde sagen: Das kannst du erstmal vergessen. Selbst 720p-Streams sind momentan so unscharf und vermatscht, dass ich sie nicht für alltagstauglich halte. Ein gestreamtes [b]Crysis 2[/b] auf Ultra-Einstellungen sieht meiner Meinung nach deutlich schwächer aus als dessen XBOX360-Echtzeit-Gegenstück. Einfach aus dem Grund, dass der Videocodec zu viele Details schluckt und selbst Standbilder nicht wirklich scharf sind.

Seska1973
23. Februar 2013 13:35

[quote=fallibart]

phu, gott sei dank. danke für eure hilfe.
sagt mal wenn die neue zockmaschine 1080p darstellen wird und man diese selbst auf 720p runter stellt , sollte es doch eigentlich mit mehr frames laufen da weniger zu rechnen.
oder sind die ‘gedeckelt’?

[/quote]Was du meinst nennt sich “”VSync””. Leider ist es von der “”Software”” abhängig. Wenn die Konsole schneller als der Fernseher darstellt nennt man es “”tearing””. Das Bild scheint irgendwie in der Mitte oder anderswo “”Abgehackt/Abgeschnitten”” zu sein.VSync wartet bis das sichtbare Bild komplett aufgebaut wird (meistens 60Hz) und erst dann “”schmeißt”” es das neue Bild an den Fernseher, außerhalb des Sichtbaren BereichesUnd Ja, theoretisch “”entlastest”” du die GPU damit, wenn du kleinere Auflösung wählst. Denk einfach an einem 1080meter lauf und 720meter lauf. (Rasterzeile)

fallibart
23. Februar 2013 8:56

phu, gott sei dank. danke für eure hilfe.sagt mal wenn die neue zockmaschine 1080p darstellen wird und man diese selbst auf 720p runter stellt , sollte es doch eigentlich mit mehr frames laufen da weniger zu rechnen.oder sind die ‘gedeckelt’?

23. Februar 2013 8:26

Selbst im Kino ist das Bild nicht besser aufgelöst. 4K Filme sind bislang sehr rar. Ich sehe da nicht viel Sinn drin jetzt aufzurüsten. Wenn ich bei meinem 52″” Blu Ray schaue, muss ich schon extrem nah dran gehen, um die Pixel zu sehen. Ich sitze ca 3,5 Meter von der Glotze entfernt. Bei mir würde 4k erst ab ca 90″” Sinn machen und das wäre mir persönlich schon zu groß.Trotzdem wird mein nächster TV bestimmt 4k haben, weil die ganze Industrie gerade darauf umschwenkt und die Panels nur unwesentlich teurer in der Produktion sind. Meiner Meinung nach sollte man beim TV Kauf auf andere Dinge achten. Wenn ich mir die inhomogene Ausleuchtung so mancher Ultra flachen TVs so anschaue wird mir übel. Größe ist nicht alles.Als Faustregel gilt bei LCD eigentlich:Je flacher das Gerät, desto beschissener ist das Bild. Das Panel ist dann nicht ausreichend gegen Verformung stabilisiert und der Lightguide für die Hintergrundbeleuchtung kann auch nich so gut gebaut werden.Als Ergebnis hat man dann clouding, banding und dse.

f42425
22. Februar 2013 23:10

Ich bin ganz klar für 4k. 720P auf 55″” ist zwar geil, aber 1080P sollten es dann doch schon sein. Wenn in 5 Jahren 80″” TVs erschwinglicher werden, möchte ich auch Material zuspielen können. Wenn die PS4 das kann, brauche ich mir keinen 4k-Player kaufen der 1000+ EUR kostet.Für Gaming bin ich mit 1080P vollkommen zufrieden und wirklich auf das nächste Soul Calibur, Quantic Dream Game und GT 6 gespannt. Als Bürohengst kann ich PCs in meiner Freizeit nicht mehr sehen (außer Internet).

captain carot
22. Februar 2013 22:30

Was die Machbarkeit beim Streaming angeht, das mag durchaus drin sein kostet aber Bandbreite. Ein nicht gerade überragend komprimiertes 720p Video braucht etwa 5MBit, wohlgemerkt ohne HD-Ton, normaler, komprimierter Stereoton. Gute 4MBit/s braucht das Video selbst. Bei 1080p sind es mindestens 8MBit, bei 4K das vierfache, also 32MBit, zzgl. Ton.Eine gewisse Abhilfe wird h.265 schaffen, bei gleicher Quali soll die Bandbreite halbiert werden, man bekäme also einen mäßigen 4K Stream mit 16MBit/s oder einen ordentlichen mit 32MBit/s, wieder zzgl. Datenrate für den Ton.

Seska1973
22. Februar 2013 22:10

[quote=Bastian 1984]

Mich würde ja interessieren, ob sie 4K auch streamen kann. Vor allem wegen des “”Hintertürchens”” Cloudgaming.

[/quote]Uh.. da wird wohl die “”Bandbreite”” zu gross sein4k= 1 Frame24Fames *1 Sekunden = Weiße Flaggen der Grafikkarte und Heulanfall der CPU. Aber das Gute daran, der Freundlicher Herr in der Türe mit der Riesenflasche Magnum Champagner von deinem “”Traficvolumen”” IP Provider sieht doch arg Verdächtig aus :)Spass beiseite. Kommt alles auf den “”Video Codec”” an, wie “”verlustfrei”” er den Datenstream komprimieren kann. So was wie JPG Bilder uswWenn ich hier 5 Minuten 720DPi Videos ohne Codec bearbeite, kommen locker 2 stellige Gigabytes heraus. (Raw Format) Kodiert ist es natürlich um einiges Kleiner (MP4 ist mein Liebling)

Seska1973
22. Februar 2013 21:55

Ich selbst nutze “”nur”” 1280×720 als Standard Auflösung. Obwohl mein Fernseher locker 1080 schaffen würden.Es ist halt für mich der “”beste”” Mittelweg von Auflösung und “”Lesbarkeit”” der Buchstaben/Texturen im Spiel.1080 ist einfach zu Kleine Buchstaben. 720 ist es genau richtigIch “”schaue”” auch meine Animes in 720 an.

Bastian 1984
22. Februar 2013 21:54

Mich würde ja interessieren, ob sie 4K auch streamen kann. Vor allem wegen des “”Hintertürchens”” Cloudgaming.

captain carot
22. Februar 2013 21:34

Das wird man sicher können, die HD-Normen sehen sowas ja auch explizit vor. Außerdem werden immer noch HD-Ready TV´s verkauft. ;-)Ob man die noch an ne Röhre hängen kann? Es gibt sogar HD-Röhrenfernseher mit HDMI. xD

Bravopunk
22. Februar 2013 21:21

Du wirst die PS4 wohl auch an ‘nen alten SD Röhrenfernseher anschließen können, wenn’s denn von Sony nicht aus irgend einem Grund verhindert und/oder es passende Kabel gibt.

fallibart
22. Februar 2013 20:07

[quote=captain carot]

Derzeit ist es nicht mal bei Filmen. Sony bietet eine Handvoll 4K Filme zusammen mit seinem 4K TV auf Festplatte an. Blu Ray kann z.B. kein 4K.

Und nein, 4K macht Spieleentwicklung nicht teurer, es ist “”nur”” eine höhere Auflösung. Bessere Texturen, mehr bzw. bessere Shadereffekte, detailliertere Modelle etc. machen Spiele teurer. Da isz es zuerst einmal egal, ob die in 320*240 laufen oder in 8K. Bei niedrigeren Auflsöungen sind Detailsteigerungen nur irgendwann sinnlos, weil man es eh nicht erkennt.

[/quote]ääähm, ne frage an dich.wenn die kommende ps4 als standard 1080p nutzen wird. kann ich damit dann noch problemlos mein 720p hmz-t1 visor befeuern, oder verweigert er dann seinen dienst?merci im voraus

captain carot
22. Februar 2013 19:18

Einer der Punkte, die ich mal dagegen halten möchte ist, dass viele Entwickler die letzten Jahre mehr oder weniger auf Konsolenniveau hängen geblieben sind und die Leistungsfähigkeit eines High End PC´s gar nicht ausreizen. Wenn man also wirklich mehr will, dann wird es eben doch ein wenig teurer. Obendrein “”bremst”” die neue Generation ja von Anfang an. 2005 war die 360 technisch durchaus auf dem Niveau eines Highend Rechners, Ende 2013 ist die PS4 HW bereits weit abgeschlagen, Stichwort GeForce Titan, und ja, ich weiß, wie teuer die ist.Auch der Gedanke in Bezug auf 3D Scans und ähnliches ist ein wenig kurz gegriffen. Es braucht dann z.B. wieder deutlich höherwertige Texturen, deutlich bessere, aufwändigere Shadereffekte, viel aufwändigere Animationen usw.Letztendlich helfen neue Middlewares, Bibliotheken etc. die Kosten zu drücken. Ebenso reduzierter Aufwand bei Portierungen.

Xtremo
22. Februar 2013 18:47

[quote=captain carot]

Und nein, 4K macht Spieleentwicklung nicht teurer, es ist “”nur”” eine höhere Auflösung. Bessere Texturen, mehr bzw. bessere Shadereffekte, detailliertere Modelle etc. machen Spiele teurer

[/quote]Beim Thema “”steigende Entwicklungskosten durch bessere Grafik”” kriege ich immer wieder die Krise. Da du technisch sehr versiert bist, möchte ich da eine kleine “”Diskussion”” starten. :DIn der Regel liegen die super-detaillierten Modelle doch ohnehin schon vor und werden zur Berechnung der Light-Maps verwendet, oder nicht? Ich erinnere mich da bspw. an einen Report über [b]Doom 3[/b], welches enormen Gebrauch von Bump-Mapping macht. Die letztendlich im Spiel verwendeten Modelle bestanden nur noch aus einem Bruchteil der Polygone, die die ursprünglichen Modelle aufwiesen.Auch was Texturen angeht, wird – zumindest momentan – auf Konsolen Downsampling betrieben. Schließlich sind die Tapeten der PC-Versionen meist deutlich detailreicher. Demnach liegen schon heute deutlich bessere Texturen vor, als die aktuellen Konsolen darstellen können. Wenn ich mich recht entsinne, gab es für [b]The Witcher[/b] sogar ein offizielles HD-Texture-Pack für die PC-Version. Im Prinzip stimmt es natürlich, dass mehr Details auch mehr Zeitaufwand bedeuten – aber ich glaube das Ganze wird im Vergleich zum ohnehin aktuell schon betriebenen Aufwand überschätzt.Was richtig Geld und Zeit kostet ist Varation. Möglichst viele verschiedene Charakter-/Fahrzeug-/etc.-modelle erfordern viel Arbeit – vor allem beim gewünschten Detailreichtum. Aber auch hier ist die steigende Hardwareleistung nicht nur Fluch, sondern evtl. auch Segen! Jeder Fahrzeughersteller baut seine Autos in 3D-Modellen am Computer. Mit genügend Rechenleistung könnte ein kommendes [b]Gran Turismo[/b] diese Modelle quasi 1:1 übernehmen. Eventuell könnte man auch Modelle aus Hollywood-Filmen direkt im Spiel nutzen.Letztendlich würde ich sagen: Klar, bessere Grafik, besserer Sound, bessere KI und Physik kosten immer auch ein Stück weit mehr Geld. Ich denke aber nicht, dass die Entwicklungskosten mit den neuen Konsolen drastisch ansteigen. Da würde ich den großen finanziellen Sprung eher bei den Wechseln von PS1 auf PS2 auf PS3 erwarten.

captain carot
22. Februar 2013 17:44

Derzeit ist es nicht mal bei Filmen. Sony bietet eine Handvoll 4K Filme zusammen mit seinem 4K TV auf Festplatte an. Blu Ray kann z.B. kein 4K.Und nein, 4K macht Spieleentwicklung nicht teurer, es ist “”nur”” eine höhere Auflösung. Bessere Texturen, mehr bzw. bessere Shadereffekte, detailliertere Modelle etc. machen Spiele teurer. Da isz es zuerst einmal egal, ob die in 320*240 laufen oder in 8K. Bei niedrigeren Auflsöungen sind Detailsteigerungen nur irgendwann sinnlos, weil man es eh nicht erkennt.

Grindor
22. Februar 2013 17:37

Gut das 4k nur bei Filmen ist, das spart mir denn kauf eines neuen Fernsehers.

SxyxS
22. Februar 2013 16:20

Natürlich können die nächste Playstation u Xbox 4k Spiele darstellen.So Grafikkracher wie Tetris,Puzzle Bobble,Snake u Pong u Breakout sollten problemlos in 4k laufen.Auch Killzone4 und Halo 5(bei 6 fps)

Xtremo
22. Februar 2013 15:54

[quote=JominatorXS]

Ich hab nichmal nen FullHD Fernseher sondern nur nen HD Ready. Hab ich dann bei der Next Gen überhaupt nen Mehrwert?

[/quote]Ja! Einfach ausgedrückt: Neben der Auflösung werden schließlich auch Texturen, Effekte, Modelle etc. besser. Durch die schnellere Technik sind größere Welten mit mehr Details, höherer Weitsicht etc. möglich! Dazu kommt außerdem verbesserte, beschleunigte Physikberechnung und vermutlich auch bessere KI. Und all das siehst du auch auf deinem HD Ready-TV.Zudem muss man bedenken, dass die Auffälligkeit des Wechsels von 720p auf 1080p von Bilddiagonale, Sitzabstand und Sehkraft des Spielers abhängt. Bei einem 32″”-Fernseher bei 2,5 Meter Sitzabstand ist der Unterschied zwischen 720p und FullHD nicht so groß wie auf einem 40- oder gar 50-Zöller.[b]Zum Thema:[/b] Selbstverständlich kann die PS4 keine 4K bei Spielen. Wie hirnrissig wäre es auch, die Leistung für eine Auflösung zu verpulvern, die vermutlich nichtmal in 5 Jahren flächendeckend von den Konsumenten genutzt werden kann? Wenn jedes Spiel der NextGen in nativen 1080p bei min. 30fps läuft, können wir mehr als zufrieden sein.

Anonymous
Anonymous
22. Februar 2013 15:00

Ich hab nichmal nen FullHD Fernseher sondern nur nen HD Ready. Hab ich dann bei der Next Gen überhaupt nen Mehrwert?

Bravopunk
22. Februar 2013 14:35

4K bei Spielen war, ist und bleibt erstmal Utopie. Das Frist viel zu viel Leistung.Da wird auch die nächste Xbox nichts dran ändern (welche Hardwaretechnisch nach bisherigen Gerüchten max. gleichauf mit der PS4 sein wird).

link82
22. Februar 2013 14:22

[quote=dead_moon]Obwohl vielleicht ja noch M$ noch ein Ass im ärmel hat?[/quote]kann ich mir nicht vorstellen, die XBox3 ist von der Hardwarepower bestimmt auch nur auf PS4-Niveau, und wenn dann imo nur ein kleinesbisschen drüber… aber reicht ja auch, soll ja auch bezahlbar bleiben 😉

dmhvader
22. Februar 2013 14:22

Ich glaub, ‘ne 4k-Glotze lohnt sich erst so ab 100 Zoll oder so! Damit kann man dann gleich eine ganze Wand tapezieren 😉 Wär doch mal was: Ein Screen, der so dünn wie dickes Papier ist!

22. Februar 2013 13:56

[quote=Kamek]

Etwas anderes zu erwarten wäre auch sehr unrealistisch gewesen.

[/quote]Hoffnung stirbt zuletzt!War letztendes zu erwarten.Na dann kann ich mir in den nächsten Tagen ne neue HD glotze zulegen nachdem meine alter vor paar wochen den Geist aufgegeben hat.Nunja, ob ich mir dann in 2 Jahren ne 4k glotze holen werde ist einfach unrealistisch,weil ich nicht weiß was ich damit machen soll wenn die next Konsolen dies nicht unterstützen.Obwohl vielleicht ja noch M$ noch ein Ass im ärmel hat?

dmhvader
22. Februar 2013 13:45

Ich brauch noch nicht mal 4k für Filme, ehrlich gesagt! Bin mit 1080p vollkommen zufrieden! Außerdem sehen mir schon auf diesem Format viele Filme oftmals zu körnig aus, da Full-HD einfach jede Macke gnadenlos darstellt!