Hardware-Preissteigerungen dank AI Bubble?
Home › Foren › Games-Talk › Hardware-Preissteigerungen dank AI Bubble?
- Dieses Thema hat 90 Antworten, 7 Teilnehmer, und wurde zuletzt von
captain carot vor vor 1 Tag, 9 Stunden aktualisiert.
-
AutorBeiträge
-
2. Dezember 2025 um 11:28 #1810955
captain carotTeilnehmerKI ist auch Cloud, zumindest externe KI, aber mit besonderen Ansprüchen. Dazu kommt aber auch noch der Unterschied zwischen Training und Ausführung.
Stark runtergebrochen, für Cloudspeicher brauchst du primär Speicher. Für klassisches Cloud Computing vor allem CPU Leistung. Cloud Gaming braucht dann passende Systeme mit relativ viel GPU Power. Bei den Konsolen halt spezielle Serverrack Versionen von PS5 und Xbox Hardware.
KI braucht erstmal irre viel RAM, irre viel Langzeitspeicher, zum Training sehr viel GPU-Leistung und zur Ausführung ebenfalls GPUs oder spezielle ASICs. Solche KI Beschleuniger können dann pro Chip um die 300GB RAM haben. Speziell die ASICs eignen sich aber nur für KI und die GPUs sind für andere Aufgaben falsch dimensioniert.
Dank begrenzter Kapazitäten steht KI aber auch mit klassischer Cloud Infrastruktur in Konkurrenz, nur kriegen wir das nicht so mit.
Ist Cloud für alles die Alternative? Sagen wir mal, im Schnitt braucht es nur 10 Millionen Cloud PS6 weil eh die meiste Zeit nur 10% aller PlayStations simultan genutzt werden. Jetzt kommt aber GTA VII und plötzlich wollen 20 Millionen Spieler gleichzeitig drauf zugreifen. Plus all die Spieler, die irgendwas anderes zocken und kein Interesse an GTA haben. Also brauchst du plötzlich 28 Millionen Cloudsysteme. Aktive wohlgemerkt. Plus Backup Kapazitäten für Ausfälle aller Art. Und weil die Hardware 24/7 genutzt wird sind die Ausfälle über die Jahre auch noch höher als bei lokaler Hardware.
Dazu kommt, wenn alles teurer wird greift das auch für die Cloud Hardware. Entsprechend müssten auch hier die Preise steigen.
Ein Allheilmittel ist das also sicher nicht.
Ich bin übrigens nicht ‚gegen KI‘. Bei Spielen kann man mit Deep Learning zum Beispiel prozedurale Generierung deutlich aufwerten, es gibt mittlerweile einige Spiele, die dank Deep Learning Tool Lippensynchronität in jeder Sprache bieten und von der eigentlichen Spiel-KI reden wir da nicht mal.
Momentan wird aber vor allem Schrott produziert und KI überall reingedrückt, ob sinnvoll oder nicht. Das führt bei KI Kunst zum Beispiel dazu, dass sie mittlerweile schon degeneriert, weil KI sich mehr und mehr selber mit AI Slop aus dem Netz trainiert. Gleichzeitig halluzinieren KI Agenten nach wie vor gerne, weswegen man sie nicht mal zuverlässig als Verkaufsagenten nutzen kann, geschweige denn für solide Buchführung.
Womit könnte Gewinn erzielt werden? Theoretisch mit sehr vielem. Von klassischer Beschleunigung von Abläufen (KI kümmert sich um Standardkram) bis hin zu eben KI-geführtem Controlling. Es gibt eine ganze Reihe Bereiche, in denen man sich momentan mit AI Rapid Prototyping versucht. Inklusive Gaming übrigens.
Vorweg, die Technik ist noch nicht wirklich da, aber nehmen wir alleine mal Altenpflege. Statt zum Beispiel Zeit auf Berichte zu verballern gibt die Pflegekraft zum Beispiel eine Checkliste an den KI-Assistenten, der sich dann um den eigentlichen Papierkram kümmert. Der KI-Assistent kann zum Beispiel bei Schichtwechsel Infos weiterleiten und dergleichen.
Swen Vincke von Larian hatte dieses Jahr ein interessantes Interview. Larian ist definitiv an KI interessiert. Aber nicht um billig per KI zu schreiben oder AI Assets zu erstellen sondern vielmehr, um Entwicklern redundante Arbeiten abzunehmen, bei Problemen zu assistieren usw. so dass die Mitarbeiter sich am Ende mehr auf die Kreativarbeit fokussieren können. Und nicht um diese zu ersetzen. Genau da hängt die Entwicklung aber noch komplett hinterher.
Ich selbst arbeite seit mittlerweile sieben Jahren auf einem Recyclinghof. Dafür braucht es reichlich Materialkenntnis. Trotzdem gibt es immer wieder Dinge, die man erstmal recherchieren muss. Zum Beispiel ein elektrisch aufheizbarer Bettwärmer aus den 20ern. Das Ding war so obskur, dass ich erstmal recherchieren musste was das ist und ob es eventuell Gefahrenstoffe enthält. Und auch bei der Schadstoffannahme können Dinge durchrutschen. Ich kenne da durchaus Fälle, wo an Schadstoffannahmen Dinge angenommen wurden, für die dann das Gefahrstofffahrzeug der Polizei anrückt.
Sortieranlagen arbeiten mittlerweile teils schon ein bisschen mit KI, bei der Flut an neuen Produkten ist das auch nötig.
Das Thema wird auch nicht mehr weggehen. Aber ich bin absolut überzeugt davon, dass es sich am besten gestern erstmal gesund schrumpfen muss, damit wir dann im Anschluss vernünftige Ideen und vernünftiges Wachstum sehen. Problem momentan, die Blase wächst immer weiter und umso kritischer wird es, wenn sie platzt.
2. Dezember 2025 um 12:56 #1810957
captain carotTeilnehmerBtw, Nachtrag auf den Bericht @ghostdog, HBM ist zwar sehr gefragt, aber klassischer DDR5 Speicher, GDDR und auch LPDDR werden ebenfalls direkt für KI Infrastruktur verbaut. Nvidias große AI Server CPUs setzen zum Beispiel auf LPDDR. D.h. Selbst ohne Produktionsumstellung auf HBM gibt es direkze Konkurrenz
2. Dezember 2025 um 14:35 #1810958
joiaTeilnehmererstmal danke für die Information.
Was KI angeht, sehe ich das ähnlich wie du – nach dem “echten” Nutzen in Form der Vereinfachung von Analyse, Kommunikation- oder Verwaltungsprozessen finde ich bislang keinen weiteren Nutzen, der der Leistung entsprechend zu rechtfertigen wäre – und diese Leistung braucht es wiederum bzw. muss die in dieser Form erstmal aufgebaut werden, damit KI erstmal in den Nutzenbereich zu bringen wäre.
Vielleicht ist das eine Kinderkrankheit, die irgendwann überwunden ist, aber der Leistungshunger muss theoretisch ja bleiben, weil die KI sonst nicht rund arbeitet.Die Degeneration des Spielzeugeinsatzes rund um realistische Einsätze sehe ich auch so. Da wurde und wird Kram produziert und rausgeballert, der einfach keinen Sinn macht und sich auch so anfühlt. Ist das Teil des Lernprozesses?
Hm. Naja. Im Moment sehe ich das, wie gerade gesagt: ein neues Ding in der Welt, an dem man sich in Form dieses Hype erstmal abarbeitet und dann langsam wieder auf den Boden kommt. Es bedeutet für die Welt von Heute offenbar eine Revolution und im Bezug auf die global vernetzten Wirtschaftssysteme eine Möglichkeit zur Vorteilsnahme – eine tatsächliche Revolution sehe ich aber nicht, nicht im Kern.
Das Beispiel mit deiner Arbeitswelt ist ein guter Hinweis. Um wirklich nützlich zu sein, muss sich KI wieder an die Welt und deren Bedürfnisse anpassen bzw. angepasst werden – sonst bleibt es ein Wasserkopf ohne Zweck und Sinn. So kommt es mir gerade auch vor. Hab auch nichts gegen KI, aber das Prinzip muss sich in der Praxis – vor allem im praktischen Nutzen – erst bewähren.
2. Dezember 2025 um 16:07 #1810960
captain carotTeilnehmerDas ist im Moment irgendwie das Kernproblem. Es gibt sinnvolle Bereiche für Deep Learning/KI. Und es gibt auch Firmen, die in dem Bereich arbeiten.
Aber gerade die Techriesen entwickeln aktuell sozusagen Lösungen, für die sie anschließend erst versuchen die Probleme zu finden.
Das ist momentan IMO auch eines der Probleme beim Ressourcenverbrauch. Es wird an effizienteren und zielgerichteteren Lösungen gearbeitet. Aber nicht zwingend bei OpenAI oder Nvidia und Konsorten. Denn aktuell verdient man extrem gut aneinander und es haben sich krasse Verflechtungen entwickelt.
Allerdings klopft mittlerweile auch die Realiät an. Für Ausbaupläne fehlt teilweise schlicht die Energie. Explodierende Speicherpreise bedeuten mittelfristig steigende Kosten. Und die Konkurrenz schläft auch nicht. Heißt hier, nicht zuletzt China arbeitet an eigenen, effizienten Algorithmen.
Da liegt glaube ich viel Potenzial brach und wir könnten noch einige Überraschungen erleben
2. Dezember 2025 um 18:05 #1810973
ghostdog83TeilnehmerDiese Analogie von Dan Houser ist durchaus erwähnenswert, was die Problematik betrifft, wenn die AI auf Basis ihrer eigenen Daten oder der anderer AIs trainiert wird, was zu einer Art informativen Inzest führt (woraus nach einer Studie abgeleitet wird, dass dies zu einem Kollaps der Modelle führen kann):
Es ist in etwa so, als hätten wir Kühe mit Kühen gefüttert und dadurch die Rinderwahnsinnskrankheit bekommen.
„AI wird sich letztendlich selbst auffressen.“
Dan Houser, Mitbegründer von Rockstar und ehemaliger Autor von Grand Theft Auto, hat AI mit der Rinderwahnsinnskrankheit verglichen und gesagt, dass die Menschheit „von einer bestimmten Gruppe von Leuten, die vielleicht nicht ganz normale Menschen sind“, in eine bestimmte Richtung gedrängt wird.
Die Auswirkungen der künstlichen Intelligenz waren schnell und einschneidend, wobei das Aufkommen von Technologien wie ChatGPT eine Wirtschaftsblase angeheizt hat, von der einige befürchten, dass sie platzen könnte. Auch die Funktionsweise des Internets wird neu gestaltet, wobei die Idee der fairen Nutzung von Inhalten für das Training von KI-Modellen im Widerspruch zum Urheberrechtsschutz steht. Dies hat zu laufenden Rechtsstreitigkeiten geführt. Disney und Universal haben beispielsweise den AI-Bildgenerator Midjourney verklagt und behaupten, das Unternehmen habe AI-generierte Figuren aus ihren Filmen unrechtmäßig verwendet und verbreitet. Disney hat außerdem eine Unterlassungserklärung an Character.AI geschickt und das Start-up aufgefordert, die unbefugte Verwendung seiner urheberrechtlich geschützten Figuren einzustellen.
Hier kommt Dan Houser ins Spiel, der Rockstar 2020 verlassen hat, um Absurd Ventures zu gründen, nachdem er bis dahin an so ziemlich allen Spielen des Studios mitgearbeitet hatte. Sein neuer Roman „A Better Paradise“ dreht sich um AI, und so ist es nur logisch, dass er in einem kürzlichen Interview mit Virgin Radio UK zu dieser Technologie befragt wurde.
Man kann mit Fug und Recht sagen, dass Houser der Zukunft der künstlichen Intelligenz skeptisch gegenübersteht.
„Einige dieser Leute, die versuchen, die Zukunft der Menschheit, der Kreativität oder was auch immer mit Hilfe von AI zu definieren, sind nicht gerade die humansten oder kreativsten Menschen“, sagte er. „Sie sagen also gewissermaßen, dass wir besser darin sind, menschlich zu sein als ihr. Und das ist offensichtlich nicht wahr.
„Das ist eine der anderen Dinge, die wir zu erfassen versuchen: dass die Menschheit von einer bestimmten Gruppe von Menschen, die vielleicht keine voll entwickelten Menschen sind, in eine bestimmte Richtung gezogen wird.“
Er fuhr fort: „Ich glaube, dass die künstliche Intelligenz sich letztendlich selbst auffressen wird. Soweit ich das verstehe, und das ist wirklich nur ein oberflächliches Verständnis, durchsuchen die Modelle das Internet nach Informationen, aber das Internet wird immer mehr mit Informationen gefüllt sein, die von den Modellen selbst erstellt wurden. Das ist in etwa so, als hätten wir Kühe mit Kühen gefüttert und dann die Rinderwahnsinnskrankheit bekommen.
Ich kann nicht erkennen, wie die Informationen besser werden sollen. Ihnen gehen bereits die Daten aus. Sie werden einige Aufgaben brillant erledigen können, aber nicht alle Aufgaben. Sie werden zu einer Art Spiegel ihrer selbst werden.
Ich bin etwas besessen von der Tatsache, dass man bei einer erneuten Suche nach derselben Sache nicht dieselben Antworten erhält. Und oft sind diese Antworten falsch, aber sie werden mit großer Überzeugung gegeben.“
Houser spricht hier darüber, was passiert, wenn AI-Modelle beginnen, auf ihre eigenen Ergebnisse zu trainieren, was laut Experten das Risiko eines Zusammenbruchs mit sich bringt. Die Large Language Models (LLMs), die ChatGPT und ähnliche Programme antreiben, sollen sich durch Garbage In/Garbage Out (GIGO) selbst kannibalisieren. Oder, wie Houser es ausdrückt: „Es ist in etwa so, als hätten wir Kühe mit Kühen gefüttert und dadurch die Rinderwahnsinnskrankheit bekommen.“
Der Einsatz von AI in der Unterhaltungsbranche ist eines der heißesten Themen in den Bereichen Videospiele, Filme und Fernsehen. Im vergangenen Monat behauptete der CEO von Genvid – dem Unternehmen hinter interaktiven Serien wie Silent Hill Ascension, bei denen man sein eigenes Abenteuer wählen kann –, dass „die Verbraucher sich im Allgemeinen nicht für generative AI in Spielen interessieren“ und erklärte: „Die Generation Z liebt AI-Schund.“
Es gibt jedoch Widerstand. Diese Woche sah sich Epic Games wegen dem, was Fans für AI-generierte Kunst in Fortnite halten, heftig Kritik ausgesetzt.
3. Dezember 2025 um 8:31 #1810996
joiaTeilnehmerDer Begriff “informativer Inzest” ist krass aber wie ich finde passend. Ein Planet, der sich nur um sich selbst dreht, wird außer sich selbst nichts “begreifen lernen” und dann fast zwangsläufig degenerieren – weil das wirklich progressive Element – die praktische Unterstützung zur Entwicklung neuer oder verbesserter praktischer Ansätze dadurch schlicht und ergreifend entfällt. Ein Lebewesen – selbst ein künstliches oder eine künstliche Form von Intelligenz – kann sich ohne diese Art Erfahrung nicht “positiv” entwickeln.
3. Dezember 2025 um 9:53 #1811013
captain carotTeilnehmerWir haben halt momentan eh keine echte KI, die nennenswert was kann. LLMs sind momentan der bekannteste Vertreter. Die ‚wissen‘ absolut nichts und ernsthaft denken tun sie eh nicht. Stattdessen kennen sie primär die häufigsten Behauptungen und halten sie für richtig.
‚KI‘ ist auch wirklich unfähig, zu abstrahieren. Man hat ihr zwar einiges antrainieren können aber Pixelart zum Beispiel kann sie immer noch nicht.
Momentan ist KI erschreckend gut darin, zum Beispiel gängige Unitests zu absolvieren. Das liegt aber nur daran, wie wir die Modelle gefüttert haben. Nicht an Denkleistung.
Es gibt noch eine Option, aktuelle KI zu trainieren. Gegen sich selbst. Das klappt zum Beispiel bei Spielen wie Go. Der AlphaGo Nachfolger hat sich selbst trainiert und AlphaGo dann platt gemacht. Im Bereich Wissen oder Kunst sind unsere aktuellen Modelle aber gar nicht fähig zu sowas. AFAIK hat auch kein System von sich aus ‚sprechen‘ gelernt oder dergleichen.
Eigentlich ist es in der aktuellen Situation völlig irreführend von AI zu reden.
Ich spiele gerade noch mal Fallen Order. Dank Mods mit weiblichem Charakter. Dafür braucht es natürlich die passende Stimme. Die ist in dem Fall auch per AI Tool entstanden. Ein Modder hat Cals Dialoge extrahiert und durch einen AI Stimmsynthesizer gejagt. Das Ergebnis ist übrigens wirklich gut. Jetzt ist so ein Mod natürlich komplett ohne Gewinnabsicht. Und genau das ist für mich schon der erste elementare Unterschied. Modder machen cooles Zeug, aber mal eben hunderte oder tausende Zeilen Dialog professionell und möglichst lippensyncron zur Vorlage einsprechen braucht neben wirklich gutem Audioequipment das passende Stimmtalent.
Will ich dadurch professionelle Sprecher ersetzt sehen? Definitiv nein. Eine Stimme zu erstellen und damit auch den Charakter zu entwickeln ist ein kreativer Prozess. Und bei vielen Spielen befruchten Voice Artists und Entwickler sich gegenseitig. Baldurs Gate 3 ist da (schon wieder) ein prominentes Beispiel.
Und natürlich sollten Voice Artists in jedem kommerziell genutzten Spiel auch entsprechend vergütet werden wenn ihre Stimme genutzt wird.
3. Dezember 2025 um 13:38 #1811023
captain carotTeilnehmerKurz und knapp, Transcend hat jetzt an seine Businesskunden mitgeteilt, dass man aktuell keine Flash-Speicher von den Herstellern bekommt und die Lagerbestände jetzt ziemlich aufgebraucht sind. Man wurde von Samsung und Co gerade wieder vertröstet und wartet auf Speicher für SSDs und Speicherkarten. Transcend rechnet mit deutlich steigenden Preisen.
Apropos Preise, auch MicroSD zieht an. MicroSD Express noch nicht aber wer eine Karte für Switch 2 braucht sollte besser nicht warten. Die Wahrscheinlichkeit dass es bald deutlich teurer wird ist ziemlich groß.
Könnte bei Nintendo sogar auf Dauer zu teureren Retailspielen führen oder dazu, dass Game Key Cars genereller Standard werden. Momentan setzt Nintendo standardmäßig auf halbwegs schnelle 64GB Speichermodule für Switch 2. Auch die dürften für Nintendo teurer werden. Oder man wird schlicht nicht mehr ausreichend beliefert.
4. Dezember 2025 um 11:23 #1811067
joiaTeilnehmerIch habe mich heute wieder durch verschiedene Artikel gewurschtet und halte das Preissteigerungsgerede mittlerweile genauso für eine Bubble wie die KI-Bubble.
Da nimmt sich die ganze Branche zu ernst – und treibt die Preise ja mit in die Höhe, während sie gleichzeitig Otto-Normal-PCler dazu animieren, sich jetzt noch einen neuen High-End-PC zu hohlen, bevor alles teuer wird – obwohl es genauso gut sein kann, dass nach Weihnachten die Preise wieder sinken. Oder auch erst in drei Monaten – oder erst in 6 Monaten – spielt keine Rolle. Eine Bubble erzeugt eine weitere Bubble. Wir leben in Krisenzeiten.4. Dezember 2025 um 15:42 #1811083
captain carotTeilnehmer4. Dezember 2025 um 23:28 #1811094
ghostdog83TeilnehmerMicrosoft senkt AI-Verkaufsziele um die Hälfte, nachdem Vertriebsmitarbeiter ihre Quoten verfehlt haben
Bericht: Microsoft hat im Mai „das Zeitalter der AI-Agenten“ ausgerufen, aber Unternehmenskunden sind davon nicht überzeugt.
Microsoft hat die Umsatzwachstumsziele für seine AI-Agent-Produkte gesenkt, nachdem viele Vertriebsmitarbeiter ihre Quoten im Geschäftsjahr, das im Juni endete, verfehlt hatten, wie aus einem Bericht von The Information vom Mittwoch hervorgeht. Die Anpassung ist für Microsoft angeblich ungewöhnlich und erfolgt, nachdem das Unternehmen eine Reihe ehrgeiziger Umsatzziele für seine AI-Angebote verfehlt hatte.
AI-Agenten sind spezialisierte Implementierungen von AI-Sprachmodellen, die dafür entwickelt wurden, mehrstufige Aufgaben autonom auszuführen, anstatt nur auf einzelne Eingaben zu reagieren. Sogenannte „agente“ Funktionen standen im Mittelpunkt der Verkaufsargumente von Microsoft für 2025: Auf seiner Build-Konferenz im Mai erklärte das Unternehmen, dass es in „die Ära der AI-Agenten“ eingetreten sei.
Das Unternehmen hat seinen Kunden versprochen, dass Agenten komplexe Aufgaben automatisieren können, wie beispielsweise die Erstellung von Dashboards aus Verkaufsdaten oder das Verfassen von Kundenberichten. Auf seiner Ignite-Konferenz im November kündigte Microsoft neue Funktionen wie Word-, Excel- und PowerPoint-Agenten in Microsoft 365 Copilot sowie Tools zum Erstellen und Bereitstellen von Agenten über Azure AI Foundry und Copilot Studio an. Doch nun, da sich das Jahr dem Ende zuneigt, hat sich dieses Versprechen als schwieriger zu erfüllen erwiesen, als das Unternehmen erwartet hatte.
Laut The Information hat eine US-amerikanische Azure-Vertriebseinheit Quoten für Vertriebsmitarbeiter festgelegt, um die Kundenausgaben für ein Produkt namens Foundry, das Kunden bei der Entwicklung von AI-Anwendungen unterstützt, um 50 Prozent zu steigern. Weniger als ein Fünftel der Vertriebsmitarbeiter dieser Einheit erreichte ihre Foundry-Umsatzwachstumsziele. Im Juli senkte Microsoft diese Ziele auf ein Wachstum von etwa 25 Prozent für das laufende Geschäftsjahr. In einer anderen US-Azure-Einheit verfehlten die meisten Vertriebsmitarbeiter eine frühere Quote zur Verdopplung des Foundry-Umsatzes, woraufhin Microsoft ihre Quoten für das laufende Geschäftsjahr auf 50 Prozent senkte.
Die Verkaufszahlen deuten darauf hin, dass Unternehmen noch nicht bereit sind, Premium-Preise für diese AI-Agent-Tools zu zahlen. Und Microsofts Copilot selbst steht vor einer Herausforderung hinsichtlich der Markenpräferenz: Anfang dieses Jahres berichtete Bloomberg, dass Microsoft-Vertriebsmitarbeiter Schwierigkeiten hatten, Copilot an Unternehmen zu verkaufen, da viele Mitarbeiter stattdessen ChatGPT bevorzugen. Der Arzneimittelhersteller Amgen kaufte Berichten zufolge Copilot-Software für 20.000 Mitarbeiter, aber viele Mitarbeiter tendierten stattdessen zum Chatbot von OpenAI, wobei Copilot hauptsächlich für Microsoft-spezifische Aufgaben wie Outlook und Teams verwendet wurde.
Ein Microsoft-Sprecher lehnte es ab, sich zu den Änderungen der Verkaufsquoten zu äußern, als er von The Information dazu befragt wurde. Hinter diesen rückläufigen Verkaufszahlen könnte jedoch ein tieferes, grundlegenderes Problem stecken: Die AI-Agent-Technologie ist wahrscheinlich noch nicht bereit für die Art von autonomen Geschäftsaufgaben mit hohem Einsatz, die Microsoft verspricht.
Die Kluft zwischen Versprechen und Realität
Die Konzepte hinter agentenbasierten AI-Systemen entstanden kurz nach der Veröffentlichung von OpenAI’s GPT-4 im Jahr 2023. Sie beinhalten in der Regel die Auslagerung von „Arbeiteraufgaben” an AI-Modelle, die parallel zu einem übergeordneten AI-Modell laufen, und integrieren Techniken zur Bewertung und Umsetzung ihrer eigenen Ergebnisse. In den letzten Jahren haben Unternehmen wie Anthropic, Google und OpenAI diese frühen Ansätze zu weitaus nützlicheren Produkten für Aufgaben wie die Softwareentwicklung weiterentwickelt, aber sie sind immer noch fehleranfällig.
Das Kernproblem ist die Tendenz von AI-Sprachmodellen zur Konfabulation, was bedeutet, dass sie mit großer Sicherheit falsche Ergebnisse generieren können, die als Fakten dargestellt werden. Zwar haben sich die Probleme mit Konfabulationen im Laufe der Zeit mit neueren AI-Modellen verringert, wie wir aus aktuellen Studien wissen, doch können die simulierten Argumentationstechniken, die hinter den derzeit auf dem Markt erhältlichen agentenbasierten AI-Assistenten stehen, immer noch katastrophale Fehler machen und diese weiterverfolgen, was sie für die Art von autonomer Arbeit, die Unternehmen wie Microsoft versprechen, unzuverlässig macht.
Obwohl agentenbasierte Systeme mit Schleifen ihre eigenen Fehler besser erkennen können als ein einzelnes AI-Modell, unterliegen sie dennoch den grundlegenden Einschränkungen der Mustererkennung der zugrunde liegenden AI-Modelle, insbesondere wenn sie mit neuen Problemen konfrontiert werden, die außerhalb ihrer Trainingsverteilung liegen. Wenn ein Agent also nicht richtig für die Ausführung einer Aufgabe trainiert ist oder auf ein einzigartiges Szenario stößt, könnte er leicht falsche Schlussfolgerungen ziehen und kostspielige Fehler für ein Unternehmen begehen.
Die „Sprödigkeit” aktueller AI-Agenten ist der Grund, warum das Konzept der künstlichen allgemeinen Intelligenz (AGI) für die AI-Branche so attraktiv ist. In der künstlichen Intelligenz bedeutet „allgemeine Intelligenz” in der Regel ein AI-Modell, das neue Aufgaben lernen oder ausführen kann, ohne dass ihm zuvor Tausende oder Millionen von Beispielen dafür gezeigt werden müssen. Obwohl AGI ein nebulöser Begriff ist, der in der Praxis schwer zu definieren ist, würde ein solches allgemeines AI-System, wenn es jemals entwickelt würde, hypothetisch einen weitaus kompetenteren agentenbasierten Mitarbeiter hervorbringen als das, was AI-Unternehmen heute anbieten.
Trotz dieser Schwierigkeiten investiert Microsoft weiterhin stark in die AI-Infrastruktur. Das Unternehmen meldete für sein im Oktober endendes erstes Geschäftsquartal Kapitalausgaben in Höhe von 34,9 Milliarden US-Dollar, was einen Rekord darstellt, und warnte davor, dass die Ausgaben weiter steigen würden. The Information merkt an, dass ein Großteil der AI-Einnahmen von Microsoft nicht von traditionellen Unternehmen stammt, die Ai-Tools für ihre eigenen Abläufe einsetzen, sondern von AI-Unternehmen selbst, die Cloud-Infrastruktur mieten.
Während derzeit alle Augen auf eine mögliche Blase auf dem AI-Markt gerichtet sind, scheint Microsoft eine Infrastruktur für eine Revolution aufzubauen, für die sich viele Unternehmen noch nicht entschieden haben.
4. Dezember 2025 um 23:43 #1811095
ghostdog83TeilnehmerMicrosoft dementiert Bericht über Senkung der Wachstumsziele für den Verkauf von AI-Software
- Carlyle kürzt Ausgaben für Copilot Studio aufgrund von Datenintegrationsproblemen – laut Bericht
- Große Tech-Unternehmen stehen unter Druck, zu beweisen, dass ihre hohen Investitionen in AI Rendite bringen
- Microsoft-Aktien verringern Verluste nach Dementi, zuletzt minus 1,7 %
3. Dezember (Reuters) – Microsoft hat am Mittwoch einen Bericht von The Information dementiert, wonach mehrere Unternehmensbereiche die Umsatzwachstumsziele für bestimmte Produkte im Bereich künstliche Intelligenz gesenkt hätten, nachdem mehrere Vertriebsmitarbeiter ihre Ziele im im Juni endenden Geschäftsjahr verfehlt hatten.
Der auf Quellen basierende Bericht zitierte zwei Vertriebsmitarbeiter der Cloud-Computing-Sparte Azure, die von Investoren aufmerksam beobachtet wird, da sie der Hauptnutznießer der AI-Offensive von Microsoft (MSFT.O) ist.„Der Bericht von The Information vermischt fälschlicherweise die Konzepte von Wachstum und Verkaufsquoten, was zeigt, dass sie nicht verstehen, wie eine Vertriebsorganisation funktioniert und vergütet wird“, erklärte ein Unternehmenssprecher in einer Stellungnahme.
„Die Gesamtverkaufsquoten für AI-Produkte wurden nicht gesenkt, wie wir ihnen vor der Veröffentlichung mitgeteilt haben.“
Nach der Zurückweisung durch Microsoft konnten die Aktien, die zu Beginn des Handels um fast 3 % gefallen waren, ihre Verluste wieder ausgleichen. Zuletzt lag die Aktie um 1,7 % im Minus. Reuters konnte den Bericht von The Information nicht unabhängig überprüfen.
Sorgen über AI-Blase
Die steigenden Bewertungen von Technologieunternehmen und Anzeichen für eine langsame Einführung der neuen KI-Technologie haben in den letzten Monaten Befürchtungen hinsichtlich einer wachsenden Blase geschürt, ähnlich wie beim Dotcom-Boom der 1990er Jahre.
Eine MIT-Studie aus diesem Jahr ergab, dass nur etwa 5 % der KI-Projekte über die Pilotphase hinauskommen.
Der Bericht von The Information besagt, dass die Carlyle Group (CG.O)
im letzten Jahr damit begonnen hat, Copilot Studio zur Automatisierung von Aufgaben wie Besprechungszusammenfassungen und FinanzmodellenDem Bericht zufolge hatte eine US-Vertriebsabteilung von Azure den Vertriebsmitarbeitern Quoten vorgegeben, um die Ausgaben der Kunden für Foundry, ein Tool zur Entwicklung von AI-Anwendungen, im letzten Geschäftsjahr um 50 % zu steigern, aber weniger als ein Fünftel erreichte die Ziele.
Im Juli senkte das Unternehmen seine Ziele für das laufende Geschäftsjahr auf ein Wachstum von etwa 25 % gegenüber dem letzten Geschäftsjahr, hieß es.
Microsoft reagierte nicht auf Anfragen, ob Carlyle die Ausgaben für Copilot Studio gekürzt habe.
Mehrere Analysten sagten, dass sich die Unternehmen noch in einer frühen Phase der Einführung von KI befänden und einige Herausforderungen zu erwarten seien.
„Das bedeutet nicht, dass KI-Produkte nicht vielversprechend sind, um Unternehmen zu mehr Produktivität zu verhelfen, sondern nur, dass es schwieriger sein könnte als gedacht“, so Gil Luria, Analyst bei D.A. Davidson.
Die US-Technologiegiganten stehen unter dem Druck der Investoren, zu beweisen, dass ihre hohen Investitionen in die AI-Infrastruktur Renditen bringen.

Rekordausgaben
Microsoft meldete für sein erstes Geschäftsquartal im Oktober Rekordinvestitionen in Höhe von fast 35 Milliarden US-Dollar und warnte, dass die Ausgaben in diesem Jahr steigen würden. Insgesamt werden die US-Technologiegiganten in diesem Jahr voraussichtlich rund 400 Milliarden US-Dollar für AI ausgeben.
Die Unternehmen haben erklärt, dass diese Ausgaben notwendig sind, um Lieferengpässe zu überwinden, die ihre Fähigkeit beeinträchtigt haben, von der Nachfrage nach AI zu profitieren.
Microsoft geht davon aus, dass die AI-Kapazitäten mindestens bis zum Ende des laufenden Geschäftsjahres im Juni 2026 knapp bleiben werden.
Die Ausgaben haben sich für das von Satya Nadella geführte Unternehmen bislang ausgezahlt, da der Umsatz seiner Cloud-Computing-Sparte Azure im Zeitraum Juli bis September um 40 % gestiegen ist und damit die Erwartungen übertroffen hat. Auch die Prognose für das zweite Quartal lag über den Schätzungen.
Der AI-Schub hat Microsoft außerdem dabei geholfen, nach Nvidia das zweite Unternehmen zu werden, das in diesem Jahr eine Bewertung von 4 Billionen US-Dollar erreicht hat, obwohl sein Marktwert seitdem wieder zurückgegangen ist.
5. Dezember 2025 um 6:50 #1811099
joiaTeilnehmer@ghostdog – der letzte Satz fasst alles oben gesagte wunderbar zusammen. Glaube versetzt Berge – heißt es so schön. Mal sehen, wie es hier weiter geht. Wenn MS sich verzockt, wird´s für sie teuer.
Ich sehe da eine Parallele zu Musk – Tesla und die Entwicklung von KI, EAutos, Weltraumzeugs etc.. das lebt alles auch vom Glauben und dem Geld, das gestiftet wird, um das Unmögliche möglich zu machen.
Nur Musk liefert im Vergleich jeden Tag Ergebnisse und jeden Tag neue Videoschnipsel zu Sachen, die funktionieren.
Wäre auch dumm, wenn ein Raketentriebwerk “konfabuliert”.5. Dezember 2025 um 10:37 #1811124
captain carotTeilnehmerE-Autos laufen in vielen Märkten gut. Man sollte von Nischenmärkten wie Deutschland nicht auf den Rest der Welt projizieren.
Bei KI ist auch nicht wirklich die Frage, ob es sich durchsetzt sondern wann und in welchen Bereichen. Der Vergleich mit der Dotcom Blase wird ja nicht grundlos gezogen. Damals wollte alles ohne Sinn und Verstand ins Internet. Das hat sich danach zwar tatsächlich durchgesetzt und einige, wenige Unternehmen aus der Phase sind tatsächlich groß geworden aber viele sind längst tot und vergessen.
Ich würde drauf wetten, dass KI in 15 JHren in vielen Bereichen ganz normal sein wird aber nicht unbedingt von den aktuell so prominenten Firmen und nicht unbedingt in den Anwendungsfeldern, die sie heute durchdrücken wollen.
Tesla, in gewisser Hinsicht ist das auf mehreren Ebenen ein schönes Beispiel. Als Elektropionier lange gebraucht um in die Gewinnzone zu kommen, dann eine Zeit lang wirklich erfolgreich, hat mittlerweile aber am Chef, an Qualitätsmängeln und der harten Konkurrenz (vor allem aus China) zu knabbern. Davon abgesehen immer noch überbewertet an der Börse.
Edit: dachte ich hätte das hier schon gepostet, laut MLID kauft OpenAI nicht nur 40% der Produktion bei den Herstellern weg sondern kauft tatsächlich auch RAM im Einzzelhandel auf. Angeblich sogar weit über den eigenen Bedarf hinaus um der Konkurrenz das Leben schwer zu machen.
Wenn das stimmt wirklich völlig rücksichtslose Geschäftspraktiken
6. Dezember 2025 um 12:04 #1811147
captain carotTeilnehmerDer Thread hier ist jetzt gerade mal gut zwei Wochen alt, ironischerweise hat die ganze Situation sich in der Zeit drastisch verschärft. Deswegen mal ein Recap.
1. es gibt drei wirklich relevante Hersteller von RAM- und NAND-Speicher. Micron, Samsung und SK-Hynix.
2. Hersteller von Fertigprodukten wie ADATA, Transcend etc. melden aktuell ausbleibende Lieferungen und schwindende Lagerbestände. Micron killt wiederum gerade sein Endkundengeschäft und beliefert Datacenter bevorzugt.
3. Hersteller von allem was Speicher hat fangen Stück für Stück an, Preissteigerungen zu verkünden.
4. Die KI-Mafia kauft weiterhin alles auf, was nicht niet- und nagelfest ist.
5. Wir sehen gerade eine rasante Beschleunigung.
Ausblick: Es wird zeitnah alles mit relevanten Mengen an Speicher teurer werden. Sämtliche Smartgeräte vom Kühlschrank bis zur Türklingel, Smartphone, Tablet, Smart-TV…
Bei generell hochpreisigen Produkten wie Auto oder OLED-TV wird der Preisaufschlag nicht so hoch ausfallen, weil der Speicher nur einen kleinen Teil der Kosten ausmacht oder vernachlässigbar ist. Anderes (Konsolen, einfache Smartphones) könnte signifikant teurer werden.
Hält der Kaufrausch und damit die Unterbrechung von Lieferketten an, dann könnten Endkundenprodukte knapp werden.
Ich wiederhole mich da, aber Nintendo könnte es gleich doppelt treffen. Da ist nicht nur die Frage, ob NAND-Flash für sie teurer wird sondern auch ob sie zukünftig genug bekommen werden für Module.
Falls die AI Bubble nicht platzt sehen wir vor 2028/29 keine Entspannung. So lange werden aktuelle Fabrikneubauten brauchen geschweige denn Projekte die erst in Planung sind. Die Chinesen wiederum haben noch nicht die Kapazitäten, hängen noch Jahre hinterher bei den Technikstandards und bekommen aus dem Westen keine Highend Lithographie. Wenn sie doch einen Sprung machen werden sie wahrscheinlich erst den eigenen (KI-) Bedarf decken.
Es gibt hier auch keine echte ‚Flucht nach vorne‘ denn alles in der Cloud zu machen bedeutet zukünftig, sich noch viel abhängiger von wenigen großen Anbietern zu machen. Mal ganz abgesehen davon, dass dann ohne Internet wirklich nix mehr läuft verlieren wir endgültig die Kontrolle über unsere Daten, hängen am Abotropf…
-
AutorBeiträge
- Du musst angemeldet sein, um auf dieses Thema antworten zu können.











