Xbox One

47
54

Wie der Xbox Chief Marketing Officer Yusuf Mehdi auf der Citi Global Technology Conference nun offiziell verkündete (später berichtete GeekWire darüber), wurde die CPU der Xbox One in der Tat von 1,6 auf 1,75 GHz erhöht. Außerdem sei die Konsole jetzt in der finalen Produktionsphase.

Albert Penello ergänzte bei NeoGAF, dass alle bisherigen Präsentationen auf 1,6-GHz-Konsolen stattgefunden hätten und die Entwickler die zusätzliche CPU-Power bald spürten. Insgesamt seien die GPU somit um sechs und die CPU fast um zehn Prozent erhöht worden.

47 Kommentare
neuste
älteste
Inline-Feedbacks
Alle Kommentare anzeigen
lipoman
6. September 2013 9:22

Ich bin vor allem auf die Spiele gespannt . In der Geschichte der Videospiele, hat sich schließlich nicht immer die stärkste Hardware durchgesetzt . Immerhin soll die one bei mir , diesmal etwas länger halten als die 360 .

ChrisKong
5. September 2013 10:35

Das ist doch im Autobau dasselbe, bei älteren Modellen kann man das meiste alleine wechseln und dran rumschrauben, bei einem neuen Auto könne einzelne Teile nur noch selten gewechselt werden. meist muss ein ganzer Block gewechselt werden, auch wenn nur ein Kleinstteil darin kaputt ist. Die Industrie verdient fröhlich mit.

captain carot
5. September 2013 10:10

Es gibt ja Kurse in den Schulen zum Umgang damit. Nur eben konzentriert auf Surfen, Word usw.Das Problem heute ist sowieso, dass man an vieles gar nicht mehr die Nase dran bekommt. Früher musstest du halt bei ne Soundkarteninstallation IRQ, DMA usw. selbst zuweisen und dann bei der Spieleinstallation meist drauf aufpassen, dass du da auch wieder die richtigen Sachen eingibst.Später gab´s dann noch Dinge wie die guten, alten .ini Hacks. Command & Conquer Tiberian Sun kann man so auch in 1920*1080 spielen, obwohl das Spiel es eigentlich nicht vorsieht und bei Oblivion kann man in der ini massiv an der Grafik schrauben, z.B. Wasserreflexionen für alles eingeben, die Auflösung der Shadow Maps ändern usw.Letzteres geht bei vielen aktuellen Titeln längst nicht mehr.Installationen laufen automatisch, das bekommt auch jeder hin. Spannend wird das nur noch, wenn man das Partitionstool von Win mal braucht oder so. Oder du baust einen Rechner komplett auf und musst dann rein zufällig mal Fehlern auf die Schliche kommen.Die meisten Leute haben mit all solchen Sachen aber nix mehr zu tun. In Zeiten, in denen sich ein NAS fast von alleine in´s Heimnetzwerk einbindet und jedes Toastbrot “”smart”” ist brauchen das die meisten auch gar nicht.

ChrisKong
5. September 2013 9:38

Von daher wundert es, dass man nicht schon in der Grundschule Basiswissen vermittelt. Bei uns gabs nur in der Oberstufe ein bisserl Informatik, aber das war so dermassen öde, kein Wunder sind nur die Mitschüler Informatiker geworden, die sich lange davor schon privat mit der Materie ausseinandergesetzt haben.

captain carot
5. September 2013 9:02

@Kamek: Genau. Wie sich das in der Praxis auswirkt ist doch eh immer ein Thema für sich. Es könnte also so und so sein, oder eben auch nicht.Was den Tech-Kram angeht, damit beschäftige ich mich jetzt seit 13 Jahren auf Hobbyniveau. Allerdings hatte ich da

WadeHade
5. September 2013 1:34

: Wieder mal sehr aufschlussreich, danke. Kann man das eigentlich studieren? ^^Frage: Soll nicht bald DDR4 rauskommen? In wie weit hätte die One damit gegenüber der PS4 punkten können?

captain carot
4. September 2013 17:35

: Mal ganz präzise, die CPU reicht eine ganze Masse an Rohdaten weiter, die die GPU für die neuen Bildchen braucht, spielrelevante Physik wird aus einer Reihe von Gründen zumindest bisher ebenfalls auf der CPU berechnet, anderes Zeug sowieso.Wenn

ChrisKong
4. September 2013 17:17

[quote=erko]

ChrisKong schrieb:

erko schrieb:

Also ich finde die specs wichtig.
Ich möchte immerhin Wissen wofür ich mein Geld verbrate… .

Hoffentlich für die Spiele, oder hast du einen Jaguar oder ein 3DO zu Hause rumstehen ????

Mal ein Beispiel:
Du hast im Supermarkt zwei Dosen in der Hand, beides sind Hühner Suppen.
Auf dem einen steht was drinnen Ist auf der anderen nicht, welche Kaufst du?

Ich möchte ganz einfach Wissen was das teil alles drauf hat.
Wen dir das egal ist, ist das dein Bier.

[/quote]Wenn ich Hühnersuppe kaufe, dann weil ich Hühnersuppe will, aber ob sie schmeckt sehe ich an den Zutaten leider noch nicht. Hahaha, wenigstens kennen wir (MS/NSA/USA) deine Leibspeise, wird sofort notiert. BisherMag es breit zu seinMag Hühnersuppezugegeben ist nicht viel, aber ich nehm einen Notizblock ans Forentreffen mit 🙂

Seska1973
4. September 2013 17:14

Auch wenn hier schon mehrmals geschrieben wurde. Nun fangen die eSchwanz vergleiche an. Aber am Ende ist es doch wichtig was Hinten herauskommt oder?Ach Spiele meine ichOder Warum ist die WiiU noch ned so der Brenner? Weil die CPU so langsam ist?

ChrisKong
4. September 2013 16:46

[quote=erko]

Also ich finde die specs wichtig.
Ich möchte immerhin Wissen wofür ich mein Geld verbrate… .

[/quote]Hoffentlich für die Spiele, oder hast du einen Jaguar oder ein 3DO zu Hause rumstehen ????

Walldorf
4. September 2013 16:47

[quote=captain carot]

: GPGPU für alles ist eine Milchmädchenrechnung. Alles, was sich nicht massiv parallelisieren lässt zieht daraus von vornherein keine Vorteile und in vielen Teilbereichen bricht die GPU aus einer Reihe von Gründen eh massiv ein. Vorteile gibt´s z.B. bei der Physik, vor allem reine Effektphysik, keine Vorteile bei Dingen wie KI und Wegfindung.

[/quote]Ich hab ja nicht gesagt, dass eine GPU für alles verwendet werden kann. Die KI in aktuellen Spielen ist nicht so viel besser als noch vor zehn Jahren, da ist die Belastung für die CPU echt vernachlässigbar. Das meiste ist sowieso gescriptet.Das mit dem Takt ist nett, aber letztendlich kann Sony da auch nachziehen, machen sie ja eh gern wenn man sich zb die PSP oder (angeblich) auch die PS Vita ansieht. Da wurde auch nach Release etwas mehr freigegeben.Letzten Endes sind es eh nur zwei Frames mehr, wenn überhaupt. Heutzutage hat man von Shadereinheiten etc. mehr. Und da hat die PS4 klare Vorteile.

dmhvader
4. September 2013 15:26

Zum Thema Bleifreies Lötzinn habe ich auch eine Meinung: Man will, dass Elektro-Geräte absichtlich schneller kaputt gehen, um öfters abzocken zu können! Der Fernseher soll nicht mehr 10-20 Jahre halten, sondern nur noch 5! Die ofiizielle Version ist – so sagt mir mein Bauchgefühl – reiner Bullshit, vor allem wenn man bedenkt, dass beim Militär und in der Medizin immer noch bleihaltig verlötet wird!Die Sache mit der geplanten Obsoleszenz ist übrigens schon seit rund 100 Jahren im Gange: Damals fing es mit den ersten Glühbirnen an, die praktisch Jahrzehnte lang gebrannt haben! Eine davon glimmt noch heute in einem Feuerwehrhaus bei San Franzisco vor sich hin! Hier mal weitere Infos mit Link zur Birnen-Webcam:http://de.wikipedia.org/wiki/Centennial_Light

dmhvader
4. September 2013 15:18

Woooooooooooooooooooooooooooooooooooooooooooow!Das wäre eigentlich eine Bild-Schlagzeile wert! Oder? 😉

ChrisKong
4. September 2013 15:09

Das mit dem Lötengeht mir auf die Klöten 🙂

captain carot
4. September 2013 15:06

Beim Lautsprecher bauen nutz ich nie bleifreies Lot. Lässt sich nämlich schlechter verarbeiten und hält auch schlechter. Dann lieber ein winzig kleines bisschen Gift, bei dem die Produkte viel länger halten.Was das bleifreie Lot an sich angeht, die Probleme waren zwar nicht völlig unbekannt, aber mit den Ausmaßen hatte keiner gerechnet.Übrigens wird bei medizinischem Equipment und Militärtechnik bis heute kein bleifreies Lot verwendet, wegen der Zuverlässigkeit.: GPGPU für alles ist eine Milchmädchenrechnung. Alles, was sich nicht massiv parallelisieren lässt zieht daraus von vornherein keine Vorteile und in vielen Teilbereichen bricht die GPU aus einer Reihe von Gründen eh massiv ein. Vorteile gibt´s z.B. bei der Physik, vor allem reine Effektphysik, keine Vorteile bei Dingen wie KI und Wegfindung.

4. September 2013 14:45

blei im lot macht des löters leber tot.löters leben leidet, wenn beim löten er kein blei vermeidet.bleifrei löten löter heute, dann stribt nicht gleich die ganze meute.nur der kunde sieht schnell rot, ist dann die konsole tot-und das alles wegen lot.

4. September 2013 14:30

[quote=SxyxS]

captain carot schrieb:

Der rRoD war primär ein Problem des bleifreien Lots, nicht von Überhitzung. Wer da von geplanter Obsoleszenz quatscht hat nebenbei auch nicht kapiert, womit die Konsolenhersteller ihr Geld machen und wo sie draufzahlen.

Da man das bleifreie Lot schon länger im Griff hat und beide Änderungen eh im Rahmen dessen sein dürften, was die APU von der Auslegung her locker mitmacht sollte es da eigentlich keine Probleme geben.

Wieso eigentlich,wenn das Problem am bleifreien lot lag, hat man eigentlich nicht für Länder wo es diese Beschränkungen nicht gab nicht mit bleihaltigem Lot löten lassen?

Oder ist bleihaltiges Lot auf der ganzen Welt verboten?

[/quote]Das mit dem Lötzinn wussten die leider nicht schon vorher 😉 Außerdem ist es in so ziemlich allen relevanten Ländern verboten.

SxyxS
4. September 2013 14:25

[quote=captain carot]

Der rRoD war primär ein Problem des bleifreien Lots, nicht von Überhitzung. Wer da von geplanter Obsoleszenz quatscht hat nebenbei auch nicht kapiert, womit die Konsolenhersteller ihr Geld machen und wo sie draufzahlen.

Da man das bleifreie Lot schon länger im Griff hat und beide Änderungen eh im Rahmen dessen sein dürften, was die APU von der Auslegung her locker mitmacht sollte es da eigentlich keine Probleme geben.

[/quote]Wieso eigentlich,wenn das Problem am bleifreien lot lag, hat man eigentlich nicht für Länder wo es diese Beschränkungen nicht gab nicht mit bleihaltigem Lot löten lassen?Oder ist bleihaltiges Lot auf der ganzen Welt verboten?

Walldorf
4. September 2013 13:57

Ich glaube nicht, dass dies einen großen Unterschied ausmacht. Der Sweet Spot der Jaguar CPU beträgt 1.6 GHz. Der Unterschied zwischen einer PS4-CPU mit 1,6 GHz und Xbox One CPU mit 1,75 GHz dürfte maximal 10 GFLOPS groß sein. Ich halte den Ansatz von Sony für viel besser: Sony setzt auf eine GPGPU, das heißt sie wollen die CPU entlasten indem sie einige Sachen von der GPU berechnen lassen. Sonys GPU verfügt über 500 GFLOPS mehr als die Microsoft-GPU. Das Wichtigste an einer Konsole ist die Balance. Guerrilla Games oder Polyphony Digital haben bereits gesagt, dass die PS4 eine perfekte Balance zwischen CPU-Leistung, GPU-Power und RAM-Bandbreite besitzt. Sony braucht die PS4 nicht hochzutakten, weil sie bereits ein neutrales System ist. Microsoft möchte ein auch neutrales System haben. Wenn die Erhöhung des CPU-Taktes ihnen hilft, dies zu erreichen, dann ist es definitiv eine gute Sache. Wenn es nicht hilft, um die Balance zu verbessern, dann ist es nur PR-Aktionismus.

BlackHGT
4. September 2013 13:45

ohh ja die gute alten Zeit wo noch klar war das 8bit schlechter ist als 16bit… man war da das vergleichen noch einfach :)Heute muss man sich die fakten so verdrehen und aus den Fingern saugen nur um 1mm zu gewinnen.. 32bit – bämmm!!! 🙂

ChrisKong
4. September 2013 13:31

Ich dachte früher mal, dass dies bei Konsoleros weniger der Fall wäre, aber meistens kommen die Hardware Analysten Nerds aus dem PC-Sektor und sind dann erst Konsoleros geworden, aber die Attitüde auf die Specs zu schielen haben sie beibehalten :-)Mir war das schon beim SNes sowas von Wurst, dass es langsamer getaktet war, hatte ja trotzdem insgesamt die geileren Games und Actionspiele wie Probotector haben ja dann bewiesen, dass die lahmere CPU halt kein Hinderungsgrund war.Aber ich kann das Interesse daran schon verstehen, wenn man sich näher damit befasst, bin da vielleicht eher atypisch, war weder an Autos noch an PCs und ihren Specs gross interessiert, obwohl oder gerade weil mein Vater ein totaler PC-Nerd ist.

captain carot
4. September 2013 13:21

Die Specs sind nunmal interessant, wenn man wissen will, was das Ding so ungefähr kann und vor allem damit irgendwas anfangen kann. Da fehlt aber meist der Bezug.

ChrisKong
4. September 2013 13:07

Nur muss man im Specs Schwanzvergleich sicher nicht die Preisleistungskarte ziehen, dann kann man den Vergleich doch ganz lassen, was eh vernünftiger wäre, aber gibt halt Leute, die nicht ohne diese Vergleiche leben können.

captain carot
4. September 2013 13:04

Nö. Beim PC ist eher die Frage, wie du die Kosten rechnest. Wenn du z.B. eh einen Desktop brauchst, dann musst du da gar nicht so viel mehr für einen Rechner ausgeben, mit dem du mehrere Jahre lang auch ohne aufzrüsten spielen kannst. Highend PC Gaming ist wiederum ein teures Hobby. Und wenn dir für alles andere eh das Notebook mit Intel GPU oder der sieben Jahre alte Core 2 reichen würde wird´s ebenfalls teuer.Anders ausgedrückt, Spielen am PC ist weder generell günstig noch generell teuer, es kommt auf die Vorgaben an und was man haben will.Wenn man von chronischem Highend Gaming ausgeht, dann ist es z.B. sehr wohl teuer.

Hitschy
4. September 2013 12:47

[quote=Xtremo]

ChrisKong schrieb:

Finde diesen Schwanzvergleich bei MS und Sony sowieso witzig, wenn beide gegen einen aktuellen PC sowieso abstinken.

Zeige mir doch bitte einen PC inkl. BluRay-Laufwerk und Controller für 399€, der PS4 und XBOX One technisch überlegen ist und die Spiele zumindest in gleicher Qualität darstellt…

[/quote]Vorsicht…die Diskussion hatten wir schon mal… ich habe da deine Meinung vertreten und wurde am Ende als intolerant und dumm abgestempelt…

Anonymous
Anonymous
4. September 2013 12:45

Schön langsam wird’s mit diesen ganzen News zu der kommenden Gen fad. Es wird Zeit, dass sie endlich eintrudeln.

ChrisKong
4. September 2013 12:44

Es geht doch bei diesem Schwanzvergleich nicht um das Preisleistungsverhältnis, sonst könnte auch einer ankommen und sagen, ich biete für 200 Euros verhältnismässig mehr, aber würde jener welcher dann auch mit seinen Hardwarespecs prahlen, kaum.Und das liegt ja nicht mal am Hersteller, die Fanboys brauchen sowas scheinbar. Da kann dann der VW des einen halt schneller sein als der andere, schön, aber vom Lamborghini sehen die trotzdem nur die Rücklichter.Und von der Preisleistung ist hier längstens nicht die Rede, alles klar? Geh mal ins Forum, da redet doch keiner, aber dafür ist das günstiger auch wenns lahmer ist.Und technisch stinken sie trotzdem ab.Mich interessiert das nur absolut nicht, ich bin nur verwundert ob dieses Hardwarespecs-Gewichse, das ist alles.

Xtremo
4. September 2013 12:33

[quote=ChrisKong]

Finde diesen Schwanzvergleich bei MS und Sony sowieso witzig, wenn beide gegen einen aktuellen PC sowieso abstinken.

[/quote]Zeige mir doch bitte einen PC inkl. BluRay-Laufwerk und Controller für 399€, der PS4 und XBOX One technisch überlegen ist und die Spiele zumindest in gleicher Qualität darstellt…

Hitschy
4. September 2013 12:25

Ehm, mal so ne frage zwischendurch… welche Konsole ist leistungsfähiger: PS3 oder die 360er? Da war ja am Anfang auch das Gelaber groß das die PS3 um längen besser wär.. oder denkt mir das jetzt falsch?

4. September 2013 12:09

laut GAME wird heute wohl offiziell der release termin bekanntgegeben.