Nvidia

35
119

Sicher ist: Die PS4 nutzt für ihre Innereien AMD-Technologien. Nicht sicher, aber immer wahrscheinlicher ist: Auch die Xbox 720 wird das tun. Was heißt, dass der konkurrierende CPU-Produzent Nvidia diesmal außen vor bleiben würde.

Dort tut man nun so, als ob das niemand stören würde, wie Tony Tamasi, Senier Vice President of Content and Technoogy bei Nvidia, in einem Gespräch mit Gamespot veranschaulicht.

Demnach wäre Nvidia diesmal einfach nicht interessiert gewesen, denn „wir wollen keine Geschäfte zu den Preisen machen, die diese Leute zu bezahlen bereit waren“. Technisch wäre es dagegen kein Problem gewesen.

Nach den Erfahrungen mit Xbox und PS3 wisse man über die Vor- und Nachteile der Konsolen-Entwicklung Bescheid und müsse abwägen, ob es sich lohnen würde, weiter Zeit und Aufwand darin zu investieren und dafür Personal nicht an anderen Dingen arbeiten zu lassen.

Offenkundig fiel die Entscheidung dagegen aus, laut Tamasi hätte AMD wohl mehr Ressourcen frei gehabt, weshalb man sehen müsse, wie es sich für die aus einer geschäftlichen Perspektive lohnen würde.

Klingt also gar nicht eingeschnappt…

35 Kommentare
neuste
älteste
Inline-Feedbacks
Alle Kommentare anzeigen
Disco Victim
16. März 2013 2:00

Hört sich ja ok an, Speicherbug hab ich glaub nicht, sonst springt ja die andere Grafikkarte ein, also bei Internet, Film usw. da ist die Temp. weit weniger. Wird nicht mal wirklich warm unten oder Gehäuse, naja wird schon alles passen 😀 Danke für die vielen Infos, wenn ich mal nen wunsch nach nem Desktop verspür, frag ich euch 🙂 wobei das nie passieren wird, k. a. die Dinger machen mich nicht an^^

captain carot
15. März 2013 23:24

Erstmal ja, Lüfter freipusten (und Kühlkörper reinigen) hilft immer. Zweitens, 80°C sind im 3D Modus kein Problem, so lange die Temparaturen im Idle deutlich drunter liegen sind auch 90° nicht das Thema. Um 100°C wird es aber langsam kritisch.Mit Speicherbug meinte ich tatsächlich das von APT beschriebene Szenario. Ganz schlimm bei der 8000er/9000er Reihe und darauf basierenden Karten, aber auch die aktuellen haben anscheinend immer noch ein bisschen das alte Problem.

monk
15. März 2013 23:23

Mich würde interessieren wer als erster den Auftrag bei AMD aufgegeben hat ??? Würde für mich dann vieles erklären.

APT
APT
15. März 2013 23:14

Ich denke C.Carot bezieht sich da auf nen bug bei dem immer mehr und mehr daten (also texturen usw) in den Grafik Speicher geladen werden ohne das nicht mehr benötigte daten vorher entfernt werden. Das führt zu extremen leistungseinbrüchen und in seltenen fällen zu abstürzen. Vereinzelt tritt der fehler auch bei anderen karten auf ist aber bei der 8er reihe am weitesten verbreitet.In der regel lässt sich der speicher durch neustarts entleeren, was auf dauer aber schon recht nervig sein kann.*edit*80grad ist ok, auch 90hrad stellen noch nicht wirklich ein problem dar, solange die temperatur konstant bleibt. Also abnehmen und wieder zunehmen kann sie schon, das ist normal, wenn du aber merkst das die temperatur langsam aber kontinuierlich weiter klettert, dann würde ich dem laptop zwischendrinn immer mal ne pause können.In anderen foren werden dir irgendwelche nerds sicher weismachen wollen das 80grad zu viel sind und du auf jedenfall unter 60 bleiben solltest und wasserkühlung is ja eh das beste (in PCs)……solches gelaber kannste getrost ignorieren. Sicher is kälter immer besser aber 80grad machen dem chip nicht viel aus und werden seine lebenszeit auch nicht entscheident verkürzen…….ne defekte wasserkühlung verkürzt allerdings die lebensdauer eines kompletten PCs ganz gewaltig….auf ca 5 sekunden 😀

Disco Victim
15. März 2013 21:11

Ah, gut zu wissen, regelmäßig den Staub rauspusten lassen soll doch auch etwas lebensverlängernd sein? Wenn ich am Fernseher spiel kommt der Lappy aufn kleinen Tisch, untere Luftschlitze lass ich frei. Einzig Dota 2 spiel ich übern Laptop Bildschirm, laut Nvidia Inspector war die max. Temp. 80° k. A. ob das jetzt viel ist. Ist ne gtx 660m, also neue Architektur, verbraucht wenig Strom….. Wenn das Ding mindestens 4 Jahre hebt ist es “”ok””…. Einzig Witcher 2 stürzt regelmäßig ab, Spiel läuft an sich absolut flüssig. Was macht der Speicherbug, wie wirkt sich der aus?^^

justplay
15. März 2013 21:05

Hm ich will nicht orakeln aber sobald die NextGen Konsolen Verbreitung gefunden haben, wird doch auch der Grafikkartenabsatz für PCs Schwung aufnehmen nehm ich an.

captain carot
15. März 2013 18:51

AMD bekommt wahrscheinlich so Lizenzgebühren für Technik, die die eh schon weitgehend entwickelt hatten. Die Fertigung wird eh bei TSMC und Co. laufen. Die verdienen also auch an den Konsolen, die Frage ist, wie viel.

SxyxS
15. März 2013 18:42

ich vermute amd verspricht sich hierdurch leichte vorteile bei umsetzungen von konsolenspielen auf pc-so dass zb die ports auf amd grafikkarten etwas besser ausehen u laufen wenn sie von amd konsolen umgesetzt werden-das bessert das image auf u könnte kunden dazu bewegen beim nächsten Aufrüsten von nvidia auf amd zu wechseln.vielleicht hatten msony auch nur bammel vor noch einem rrodylod

APT
APT
15. März 2013 18:38

Ja, das kann man machen. Aber nur wenn der chip noch keine macke hat. Wenn die probleme schon vorhanden sind, dann hilft ein underclocking oder so ne lüfterplatte auch nicht viel. Vielleicht kann man die lebsndauer damit noch n bissl verlängern, kaputt geht er aber irgendwann in jedem fall.

captain carot
15. März 2013 18:32

Gibt Alternativen. Hab dem Laptop meines zukünftigen Schwagers letztens auf einer stabilen, kühlen Taktrate ein Underclocking-Bios draufgepappt. ok, spielen tut der eh am großen Rechner tuen tun.

Seska1973
15. März 2013 18:28

[quote=Oliver Grüner]

Disco Victim schrieb:

: Mach mir keine Angst, was ist denn so schlecht an deren Laptop Karten? Hab mir erst nen Laptop mit Nvidia geholt^^

Die werden sehr heiß.

Bei meinem alten Hochpreis-Laptop ist nach exakt drei Jahren die GeForce m 8600 GT abgeraucht. Nach kurzer Recherche soll es sich um einen Fertigungsfehler diese Chips gehandelt haben. Austauschen tat das nach der Zeit leider keiner mehr, so war die Kiste reif für den Müll.

Bei meinem “”neuen”” Laptop mit GeForce GT 540m beobachte ich die Temperaturen mit einem Widget genau und stelle leider fest, dass das Teil ebenfalls extrem heiß wird, weitaus heißer als meine viel schnellere Desktop-Grafikkarte.

[/quote]Ein Freund von mir hat sich eine Zusatzhardware gekauft, das nur aus 2 Lüfter besteht mit Ablage, die man unter das Laptop klemmt. Das Laptop wird was aufgebockt, danke der Füße, damit mehr Luft darunter fließt. Aber die 2 Extra Lüfter machen doch schon Radau. Genutzt hat es aber doch ned mit der Lebensdauer des Chips. Es wurde zwar ned mehr so Warm, aber wie gesagt. Also ob Sie eine eingebauten “”Zack Buff”” Farbschmiererei auf den Bildschirm werf Funktion haben. So ne art “”Soll Bruchstelle””

APT
APT
15. März 2013 18:19

@Disco VictimWie hier einige schon geschrieben haben überhitzen deren chips sehr schnell. Wenn man mit den chips viel zockt dann führt das oft zu aussetzern die sich in crashes, neustarts, freezes und bildflackern wiederspiegeln. Sobald diese symptome ein

captain carot
15. März 2013 18:02

Also, die NV Karten haben z.B. seit der GTX8800 den tollen Speicherbug. Dann gab es diverse KArten und GPU-Module, die genialer Weise keine Temperaturkontrolle hatten, wohl aber einen Temperatursensor.Wenn man wirklich ein Topmodell hat, dann hatte NV eine Zeit lang die Nase bei der Bildquali leicht vorne, bei den Karten bis in´s Performancesegment kann NV den Vorteil aber nicht ausspielen, die sind eh zu langsam. Außerdem sind die Nachteile seitens ATi etwa beim Anisotropen Filter schon lange gegessen.Zusätzlich hat NV zeitenweise gut vom “”the way it´s meant to be played””-Programm profitiert, manche Spiele, aber lange nicht alle, liefen auf NV-KArten deswegen mehr oder weniger schneller. Da hat sich das Bild in letzter Zeit aber eher gedreht.

Ragnacenty
15. März 2013 17:52

Was sollen sie auch anderes sagen? Öffentlich weinen geht ja wohl schlecht. Und das bei einem solchen Deal nichts hängen bleibt halte ich für ein Gerücht. Wenn man die Lebensdauer einer Konsole sieht und die mit der Zeit sinkenden Produktionskosten, dürften die Profite jährlich zunehmen. Und da beide Konsolen bedient werden ist AMD schon jetzt der klare Gewinner, egal wie die Marktanteile verteilt werden. Ich denke wenn man AMD Aktien kaufen will, dann jetzt.

ChrisKong
15. März 2013 16:43

@dmhvaderHahaha Sony und MS bremsen sich gegenseitig aus.

Oliver Gruener
15. März 2013 16:40

[quote=Disco Victim]

: Mach mir keine Angst, was ist denn so schlecht an deren Laptop Karten? Hab mir erst nen Laptop mit Nvidia geholt^^

[/quote]Die werden sehr heiß. Bei meinem alten Hochpreis-Laptop ist nach exakt drei Jahren die GeForce m 8600 GT abgeraucht. Nach kurzer Recherche soll es sich um einen Fertigungsfehler diese Chips gehandelt haben. Austauschen tat das nach der Zeit leider keiner mehr, so war die Kiste reif für den Müll.Bei meinem “”neuen”” Laptop mit GeForce GT 540m beobachte ich die Temperaturen mit einem Widget genau und stelle leider fest, dass das Teil ebenfalls extrem heiß wird, weitaus heißer als meine viel schnellere Desktop-Grafikkarte.

dmhvader
15. März 2013 16:25

Naja, wenn beide Konsolen AMD-Chips benötigen, hoffe ich ja, dass es genügend davon für beide gibt, wenn die Massenproduktion startet! Nicht dass dann eine der beiden Konsolen erst mal warten muss, bis AMD die notwendige Anzahl an Chips nachproduziert hat!

15. März 2013 15:34

Tja nur leider interessiert es einen Großteil der Gamer heutzutage nicht mehr was in der Konsole verbaut ist, es ist auch keinerlei Werbung außen oder beim Bootvorgang vorhanden und weder MS noch Sony werden damit groß hausieren gehen, wer was baut, es ist ja IHRE Konsole.Wer sich hingegen für eine PC-Grafikkarte entscheidet tut dies bewußt.

ChrisKong
15. März 2013 15:24

Vielleicht wollte NVidia auch nicht unnötig Ressourcen binden für ein Geschäft bei dem nicht viel hängen bleibt, und sie woanders einsetzen. So genau weiss es wohl nur die Führungsetage bei NVidia. Genau meine Rede, eigentlich könnten Sony und MS gemeinsam eine Konsole bringen, so wie sich die Situation darstellt nähern die sich mit jeder weiteren Generation einander an. Die Märkte sind ja eh quasi in Us und Japan aufgeteilt. In Japan brächten sie die Konsole unter dem Sony-Label und in den USA von MS.

Disco Victim
15. März 2013 15:21

Marktanteile gibt eig. keine Firma gerne her, AMD hat hier seine Chance gesehen und ist den Deal eingegangen. ca. 100 Millionen NG Konsolen quasi nur AMD Zeugs, das ist ein Mega – Deal. Wers nicht braucht ist sich seiner Sache sicher, aber schon seltsam Crysis 1+ 2 waren von Nvidia gesponsort, Crysis 3 dagegen von AMD. Allgemeiner Trend? Auf langer Sicht könnte es nicht so unwichtig sein.: Mach mir keine Angst, was ist denn so schlecht an deren Laptop Karten? Hab mir erst nen Laptop mit Nvidia geholt^^

rvn
rvn
15. März 2013 15:11

Vermutlich kommt ja ein viel runderes Gesamtsystem dabei raus, wenn alles in der Hand von einem Entwickler liegt. Gerade bei dem geteilten Arbeitsspeicher macht das ja Sinn.Aber wenn es dann jetzt wirklich so ist, dass AMD Sony und Microsoft beliefert, dann frage ich mich, wo die Unterschiede liegen werden. Entweder es kommen 2 fast identische Systeme zum gleichen Preis raus, oder 2 gleiche Systeme von denen eines mehr subventioniert ist, oder eins von beiden Systemen muss schlechter sein als das andere.

captain carot
15. März 2013 14:56

In Bezug auf die GPU´s ist die bei NV auch nicht wirklich besser. ;-)Interessant wäre wie gesagt die Frage, was MS und Sony genau wollten. NV hätte da eben “”nur”” eine GPU beisteuern können, kein Komplettpaket.Was wiederrum NV im Mobilesegment angeht, da sind die Tegras bisher nicht besonders toll und Nvidia im Vergleich zu Qualcomm, Samsung und Co. eher ein Underdog. Mali, Adreno und PowerVR SGX sind teilweise bedeutend schneller als die Tegra GPU.

rvn
rvn
15. März 2013 14:55

Eben 🙂

15. März 2013 14:33

Nvidia hat glaub ich Reputation genug im Gegensatz zu AMD 😉

SxyxS
15. März 2013 14:03

Wenn ich keinen Deal unter Dach und Fach gekriegt hätte und an einer eigenen Konsole arbeiten würde,würde ich genau das sagen was er sagt.Nur sollte er nicht so tun als ob man das Geschäft hat aus wirtschaftlichen gründen sausen lassen.Dann wäre man schon nach der xbox1 aus dem KonsolenGeschäft ausgestiegen anstatt den denselben fehler nochmal zu wiederholen u für die ps3 zu produzieren.

rvn
rvn
15. März 2013 14:02

Nvidia konzentriert sich doch derzeit verstärkt auf den Mobilsektor. Glaube kaum, dass es Nvidia schadet, nicht an derNextGen mitzubauen. AMD hingegen kann es sehr gut gebrauchen, um sich wieder ein bisschen Reputation aufzubauen, nachdem sie ihre CPUs in den Sand gefahren haben.

f42425
15. März 2013 13:58

Ich bin ganz froh, dass AMD verbaut ist. Nvidia hätte der PS4 zwar auch gut gestanden, aber ich glaube, dass hätte sich auch im Preis wiedergespiegelt. Der Chip ist zwar auch wichtig, aber viel wichtiger ist die Architektur, wie der PS3 vs 360 Krieg gezeigt hat. 8 GB GDDR 5 unified ist der “”Big Point””!Ich freue mich wirklich…

Goku
15. März 2013 13:51

[quote=erko]

Die lassen also Geld liegen?
Naja, von mir aus… . ^^

[/quote]Na ja, ich glaube das kann man so noch nicht sagen, vielleicht ist Nvidia klar geworden, dass sie nicht die Umsatzzahlen einfahren können, die sie sich bei einem Next-Gen-Konsolen-Geschäft wünschen.Und der gute Wille alleine reicht bei solch einem Geschäft nicht ^^

15. März 2013 13:34

@ DoomDas wage ich zu bezweifeln, einen Kunden an dem ich nichts verdienen kann oder nur sehr viel weniger verdiene als ich könnte, den brauche ich nicht. Die Sachen wollen entwickelt und gebaut werden und Sony und MS wollen nicht viel dafür ausgeben, hör

D00M82
15. März 2013 13:31

Das sind einfach mal aussagen, wo selbst jeder Idiot weiß, dass sie gelogen sind. Einen auftrag in der Größe will doch jedes unternehmen.