Sicher ist: Die PS4 nutzt für ihre Innereien AMD-Technologien. Nicht sicher, aber immer wahrscheinlicher ist: Auch die Xbox 720 wird das tun. Was heißt, dass der konkurrierende CPU-Produzent Nvidia diesmal außen vor bleiben würde.
Dort tut man nun so, als ob das niemand stören würde, wie Tony Tamasi, Senier Vice President of Content and Technoogy bei Nvidia, in einem Gespräch mit Gamespot veranschaulicht.
Demnach wäre Nvidia diesmal einfach nicht interessiert gewesen, denn wir wollen keine Geschäfte zu den Preisen machen, die diese Leute zu bezahlen bereit waren. Technisch wäre es dagegen kein Problem gewesen.
Nach den Erfahrungen mit Xbox und PS3 wisse man über die Vor- und Nachteile der Konsolen-Entwicklung Bescheid und müsse abwägen, ob es sich lohnen würde, weiter Zeit und Aufwand darin zu investieren und dafür Personal nicht an anderen Dingen arbeiten zu lassen.
Offenkundig fiel die Entscheidung dagegen aus, laut Tamasi hätte AMD wohl mehr Ressourcen frei gehabt, weshalb man sehen müsse, wie es sich für die aus einer geschäftlichen Perspektive lohnen würde.
Klingt also gar nicht eingeschnappt…









Hört sich ja ok an, Speicherbug hab ich glaub nicht, sonst springt ja die andere Grafikkarte ein, also bei Internet, Film usw. da ist die Temp. weit weniger. Wird nicht mal wirklich warm unten oder Gehäuse, naja wird schon alles passen 😀 Danke für die vielen Infos, wenn ich mal nen wunsch nach nem Desktop verspür, frag ich euch 🙂 wobei das nie passieren wird, k. a. die Dinger machen mich nicht an^^
Erstmal ja, Lüfter freipusten (und Kühlkörper reinigen) hilft immer. Zweitens, 80°C sind im 3D Modus kein Problem, so lange die Temparaturen im Idle deutlich drunter liegen sind auch 90° nicht das Thema. Um 100°C wird es aber langsam kritisch.Mit Speicherbug meinte ich tatsächlich das von APT beschriebene Szenario. Ganz schlimm bei der 8000er/9000er Reihe und darauf basierenden Karten, aber auch die aktuellen haben anscheinend immer noch ein bisschen das alte Problem.
Mich würde interessieren wer als erster den Auftrag bei AMD aufgegeben hat ??? Würde für mich dann vieles erklären.
Ich denke C.Carot bezieht sich da auf nen bug bei dem immer mehr und mehr daten (also texturen usw) in den Grafik Speicher geladen werden ohne das nicht mehr benötigte daten vorher entfernt werden. Das führt zu extremen leistungseinbrüchen und in seltenen fällen zu abstürzen. Vereinzelt tritt der fehler auch bei anderen karten auf ist aber bei der 8er reihe am weitesten verbreitet.In der regel lässt sich der speicher durch neustarts entleeren, was auf dauer aber schon recht nervig sein kann.*edit*80grad ist ok, auch 90hrad stellen noch nicht wirklich ein problem dar, solange die temperatur konstant bleibt. Also abnehmen und wieder zunehmen kann sie schon, das ist normal, wenn du aber merkst das die temperatur langsam aber kontinuierlich weiter klettert, dann würde ich dem laptop zwischendrinn immer mal ne pause können.In anderen foren werden dir irgendwelche nerds sicher weismachen wollen das 80grad zu viel sind und du auf jedenfall unter 60 bleiben solltest und wasserkühlung is ja eh das beste (in PCs)……solches gelaber kannste getrost ignorieren. Sicher is kälter immer besser aber 80grad machen dem chip nicht viel aus und werden seine lebenszeit auch nicht entscheident verkürzen…….ne defekte wasserkühlung verkürzt allerdings die lebensdauer eines kompletten PCs ganz gewaltig….auf ca 5 sekunden 😀
Ah, gut zu wissen, regelmäßig den Staub rauspusten lassen soll doch auch etwas lebensverlängernd sein? Wenn ich am Fernseher spiel kommt der Lappy aufn kleinen Tisch, untere Luftschlitze lass ich frei. Einzig Dota 2 spiel ich übern Laptop Bildschirm, laut Nvidia Inspector war die max. Temp. 80° k. A. ob das jetzt viel ist. Ist ne gtx 660m, also neue Architektur, verbraucht wenig Strom….. Wenn das Ding mindestens 4 Jahre hebt ist es “”ok””…. Einzig Witcher 2 stürzt regelmäßig ab, Spiel läuft an sich absolut flüssig. Was macht der Speicherbug, wie wirkt sich der aus?^^
Hm ich will nicht orakeln aber sobald die NextGen Konsolen Verbreitung gefunden haben, wird doch auch der Grafikkartenabsatz für PCs Schwung aufnehmen nehm ich an.
AMD bekommt wahrscheinlich so Lizenzgebühren für Technik, die die eh schon weitgehend entwickelt hatten. Die Fertigung wird eh bei TSMC und Co. laufen. Die verdienen also auch an den Konsolen, die Frage ist, wie viel.
ich vermute amd verspricht sich hierdurch leichte vorteile bei umsetzungen von konsolenspielen auf pc-so dass zb die ports auf amd grafikkarten etwas besser ausehen u laufen wenn sie von amd konsolen umgesetzt werden-das bessert das image auf u könnte kunden dazu bewegen beim nächsten Aufrüsten von nvidia auf amd zu wechseln.vielleicht hatten msony auch nur bammel vor noch einem rrodylod
Ja, das kann man machen. Aber nur wenn der chip noch keine macke hat. Wenn die probleme schon vorhanden sind, dann hilft ein underclocking oder so ne lüfterplatte auch nicht viel. Vielleicht kann man die lebsndauer damit noch n bissl verlängern, kaputt geht er aber irgendwann in jedem fall.
Gibt Alternativen. Hab dem Laptop meines zukünftigen Schwagers letztens auf einer stabilen, kühlen Taktrate ein Underclocking-Bios draufgepappt. ok, spielen tut der eh am großen Rechner tuen tun.
[quote=Oliver Grüner]
Die werden sehr heiß.
Bei meinem alten Hochpreis-Laptop ist nach exakt drei Jahren die GeForce m 8600 GT abgeraucht. Nach kurzer Recherche soll es sich um einen Fertigungsfehler diese Chips gehandelt haben. Austauschen tat das nach der Zeit leider keiner mehr, so war die Kiste reif für den Müll.
Bei meinem “”neuen”” Laptop mit GeForce GT 540m beobachte ich die Temperaturen mit einem Widget genau und stelle leider fest, dass das Teil ebenfalls extrem heiß wird, weitaus heißer als meine viel schnellere Desktop-Grafikkarte.
[/quote]Ein Freund von mir hat sich eine Zusatzhardware gekauft, das nur aus 2 Lüfter besteht mit Ablage, die man unter das Laptop klemmt. Das Laptop wird was aufgebockt, danke der Füße, damit mehr Luft darunter fließt. Aber die 2 Extra Lüfter machen doch schon Radau. Genutzt hat es aber doch ned mit der Lebensdauer des Chips. Es wurde zwar ned mehr so Warm, aber wie gesagt. Also ob Sie eine eingebauten “”Zack Buff”” Farbschmiererei auf den Bildschirm werf Funktion haben. So ne art “”Soll Bruchstelle””
@Disco VictimWie hier einige schon geschrieben haben überhitzen deren chips sehr schnell. Wenn man mit den chips viel zockt dann führt das oft zu aussetzern die sich in crashes, neustarts, freezes und bildflackern wiederspiegeln. Sobald diese symptome ein
Also, die NV Karten haben z.B. seit der GTX8800 den tollen Speicherbug. Dann gab es diverse KArten und GPU-Module, die genialer Weise keine Temperaturkontrolle hatten, wohl aber einen Temperatursensor.Wenn man wirklich ein Topmodell hat, dann hatte NV eine Zeit lang die Nase bei der Bildquali leicht vorne, bei den Karten bis in´s Performancesegment kann NV den Vorteil aber nicht ausspielen, die sind eh zu langsam. Außerdem sind die Nachteile seitens ATi etwa beim Anisotropen Filter schon lange gegessen.Zusätzlich hat NV zeitenweise gut vom “”the way it´s meant to be played””-Programm profitiert, manche Spiele, aber lange nicht alle, liefen auf NV-KArten deswegen mehr oder weniger schneller. Da hat sich das Bild in letzter Zeit aber eher gedreht.
Was sollen sie auch anderes sagen? Öffentlich weinen geht ja wohl schlecht. Und das bei einem solchen Deal nichts hängen bleibt halte ich für ein Gerücht. Wenn man die Lebensdauer einer Konsole sieht und die mit der Zeit sinkenden Produktionskosten, dürften die Profite jährlich zunehmen. Und da beide Konsolen bedient werden ist AMD schon jetzt der klare Gewinner, egal wie die Marktanteile verteilt werden. Ich denke wenn man AMD Aktien kaufen will, dann jetzt.
@dmhvaderHahaha Sony und MS bremsen sich gegenseitig aus.
[quote=Disco Victim]
@APT: Mach mir keine Angst, was ist denn so schlecht an deren Laptop Karten? Hab mir erst nen Laptop mit Nvidia geholt^^
[/quote]Die werden sehr heiß. Bei meinem alten Hochpreis-Laptop ist nach exakt drei Jahren die GeForce m 8600 GT abgeraucht. Nach kurzer Recherche soll es sich um einen Fertigungsfehler diese Chips gehandelt haben. Austauschen tat das nach der Zeit leider keiner mehr, so war die Kiste reif für den Müll.Bei meinem “”neuen”” Laptop mit GeForce GT 540m beobachte ich die Temperaturen mit einem Widget genau und stelle leider fest, dass das Teil ebenfalls extrem heiß wird, weitaus heißer als meine viel schnellere Desktop-Grafikkarte.
Naja, wenn beide Konsolen AMD-Chips benötigen, hoffe ich ja, dass es genügend davon für beide gibt, wenn die Massenproduktion startet! Nicht dass dann eine der beiden Konsolen erst mal warten muss, bis AMD die notwendige Anzahl an Chips nachproduziert hat!
Tja nur leider interessiert es einen Großteil der Gamer heutzutage nicht mehr was in der Konsole verbaut ist, es ist auch keinerlei Werbung außen oder beim Bootvorgang vorhanden und weder MS noch Sony werden damit groß hausieren gehen, wer was baut, es ist ja IHRE Konsole.Wer sich hingegen für eine PC-Grafikkarte entscheidet tut dies bewußt.
Vielleicht wollte NVidia auch nicht unnötig Ressourcen binden für ein Geschäft bei dem nicht viel hängen bleibt, und sie woanders einsetzen. So genau weiss es wohl nur die Führungsetage bei NVidia.@rvn Genau meine Rede, eigentlich könnten Sony und MS gemeinsam eine Konsole bringen, so wie sich die Situation darstellt nähern die sich mit jeder weiteren Generation einander an. Die Märkte sind ja eh quasi in Us und Japan aufgeteilt. In Japan brächten sie die Konsole unter dem Sony-Label und in den USA von MS.
Marktanteile gibt eig. keine Firma gerne her, AMD hat hier seine Chance gesehen und ist den Deal eingegangen. ca. 100 Millionen NG Konsolen quasi nur AMD Zeugs, das ist ein Mega – Deal. Wers nicht braucht ist sich seiner Sache sicher, aber schon seltsam Crysis 1+ 2 waren von Nvidia gesponsort, Crysis 3 dagegen von AMD. Allgemeiner Trend? Auf langer Sicht könnte es nicht so unwichtig sein.@APT: Mach mir keine Angst, was ist denn so schlecht an deren Laptop Karten? Hab mir erst nen Laptop mit Nvidia geholt^^
Vermutlich kommt ja ein viel runderes Gesamtsystem dabei raus, wenn alles in der Hand von einem Entwickler liegt. Gerade bei dem geteilten Arbeitsspeicher macht das ja Sinn.Aber wenn es dann jetzt wirklich so ist, dass AMD Sony und Microsoft beliefert, dann frage ich mich, wo die Unterschiede liegen werden. Entweder es kommen 2 fast identische Systeme zum gleichen Preis raus, oder 2 gleiche Systeme von denen eines mehr subventioniert ist, oder eins von beiden Systemen muss schlechter sein als das andere.
In Bezug auf die GPU´s ist die bei NV auch nicht wirklich besser. ;-)Interessant wäre wie gesagt die Frage, was MS und Sony genau wollten. NV hätte da eben “”nur”” eine GPU beisteuern können, kein Komplettpaket.Was wiederrum NV im Mobilesegment angeht, da sind die Tegras bisher nicht besonders toll und Nvidia im Vergleich zu Qualcomm, Samsung und Co. eher ein Underdog. Mali, Adreno und PowerVR SGX sind teilweise bedeutend schneller als die Tegra GPU.
Eben 🙂
Nvidia hat glaub ich Reputation genug im Gegensatz zu AMD 😉
Wenn ich keinen Deal unter Dach und Fach gekriegt hätte und an einer eigenen Konsole arbeiten würde,würde ich genau das sagen was er sagt.Nur sollte er nicht so tun als ob man das Geschäft hat aus wirtschaftlichen gründen sausen lassen.Dann wäre man schon nach der xbox1 aus dem KonsolenGeschäft ausgestiegen anstatt den denselben fehler nochmal zu wiederholen u für die ps3 zu produzieren.
Nvidia konzentriert sich doch derzeit verstärkt auf den Mobilsektor. Glaube kaum, dass es Nvidia schadet, nicht an derNextGen mitzubauen. AMD hingegen kann es sehr gut gebrauchen, um sich wieder ein bisschen Reputation aufzubauen, nachdem sie ihre CPUs in den Sand gefahren haben.
Ich bin ganz froh, dass AMD verbaut ist. Nvidia hätte der PS4 zwar auch gut gestanden, aber ich glaube, dass hätte sich auch im Preis wiedergespiegelt. Der Chip ist zwar auch wichtig, aber viel wichtiger ist die Architektur, wie der PS3 vs 360 Krieg gezeigt hat. 8 GB GDDR 5 unified ist der “”Big Point””!Ich freue mich wirklich…
[quote=erko]
Die lassen also Geld liegen?
Naja, von mir aus… . ^^
[/quote]Na ja, ich glaube das kann man so noch nicht sagen, vielleicht ist Nvidia klar geworden, dass sie nicht die Umsatzzahlen einfahren können, die sie sich bei einem Next-Gen-Konsolen-Geschäft wünschen.Und der gute Wille alleine reicht bei solch einem Geschäft nicht ^^
@ DoomDas wage ich zu bezweifeln, einen Kunden an dem ich nichts verdienen kann oder nur sehr viel weniger verdiene als ich könnte, den brauche ich nicht. Die Sachen wollen entwickelt und gebaut werden und Sony und MS wollen nicht viel dafür ausgeben, hör
Das sind einfach mal aussagen, wo selbst jeder Idiot weiß, dass sie gelogen sind. Einen auftrag in der Größe will doch jedes unternehmen.