GPU

Errinern wir uns mal zurück an die erste Ryzen Generation, man zog im Mid Range Bereich gleich mit Intel und Zeigte das man auch ohne Stillstand weiterkommen kann zu weitaus kleineren Preisen. So begann Intels abstieg und der Wettkampf mit einem Underdog der Schlussendlich zu einem richtigem Konkurrenten aufstieg.

Mit NVIDIA war das lange nicht möglich, da der US Konzern, durch aus gut Vorlegte und man eher immer einen Schritt hinterherhing im Entwicklungsspeed. Jedoch hat NVIDIA mit der Konzentration auf Rechenzentren und Server mit KI sehr stark die Endkunden aus dem Fokus verloren, was sich zum einen in der Qualität neuer Hardware aber auch der Preisgestaltung und den Performance Sprüngen, die immer kleiner werden, bemerkbar macht.

AMD hatte für RDNA 4 eigentlich eher die Konzentration auf dem Mid Range Bereich und das mithalten dort mit NVIDIA im Preislichen und Performancebereich auf dem Radar, jedoch hat NVIDIA wie bereits angemerkt das Thema Endkundengrafikkarten ziemlich hängen lassen. Wenig verwunderlich das das Preis / Leistungsziel , die aktuelle 5070 / 5070 Ti ohne Probleme erreicht werden konnte.

Umso mehr zeigten dann Tests von Overclockern mit erhöhtem Takt und Undervolting, was noch gehen hätte können wenn man sich auf die Möglichkeiten konzentriert hätte. Hier ist eine 9070 XT so weit getrieben worden, dass sie durch die Bank weg eine 5080 hat übertreffen können und das zu einem UVP der Karte, der fast 50% unter der der Konkurrenz liegt.

Die Hoffnung das wir in dieser Generation vielleicht noch eine 9080 oder gar 9090 sehen können, ist von daher gar nicht mehr so abwegig.

AMD glänzt mit auffällig wenig Infos zum kommendem Grafikchip und auch bei den Partnern ist eine deutlich Wahrnehmbare Stille festzustellen. Gleichzeitig gibt es kaum Leaks, lagernde Karten in hohrenden Mengen bei den Händlern und um alles verwirrender zu gestalten, gehackte Treiber die wohl Benchmarks auf den Karten mit merkwürdigen Ergebnissen ermöglichen.

Die Frage die sich hierbei stellt ist: Was hat AMD eigendlich vor?

Continue Reading

Der Launch der 50er Serie von Nvidia ist überschattet von organistorischen aber auch technischen Problemen, die anscheinend die ganze Serie betreffen und nicht nur einzelne Karten oder Anbieter. Es stellt sich erneut die Frage des Stellenwerts der Gamer für NVIDIA als Kunden aber auch der Punkt Sicherheits- als auch Qualitätssicherung werfen massive Fragen auf.

Continue Reading

In den kommenden Tagen ist es soweit und das 2 jährige Warten auf einen Nachfolger der 4090 ist vorbei. Doch was wird uns erwarten?

Grundlegend eine Preissteigerung um mehrere Hundert Euro auf 2329 € ausgehend von 1943 € ( MSRP für die 4090 ), was knapp 20% entspricht aber auch eine Rohleistungssteigerung von rund 30% und neue Features die vor allem im Highend Segment eine bis zu 3x höhere Rechenleistung bedeuten.

Wie das ganze Real aussieht werden wir in den nächsten Tagen nicht nur aus 3. Quellen erfahren dürfen, sondern auch im „Selbstexperiment“ , da eine 5090 auch einen Weg in meinen PC finden wird, da die Karte bestandteil des 2025er PC Umbaus sein wird.

China arbeitet aufgrund bestehender Sanktionen dran schon seit geraumer Zeit unabhängiger von Westlicher IT Hardware zu werden. Nach CPUs sind nun GPUs auf dem Plan.

Das 2020 gegründete Unternehmen Moore Threads hat nun die ersten GPUs auf den Markt gebracht:

  • Consumer MTT S60 ( 8GB LPGDDR4X / 2048 Shadereinheiten / 6 TFLOPs Rechenleistung )
  • Server MTT S2000 ( 32GB LPGDDR4x / 4096 Shadereinheiten / 12 TFLOPs Rechenleistung )

Die Karten laufen auf Basis von MUSA ( MT Unified System Architecture ), sind in 12 nm gefertigt und liegen Performancetechnisch ( MTT S60 ) auf dem Niveau einer Nvidia GeForce 1070.

Dieser Stand ist für ein erst 2020 Gegründetes Unternehmen mehr als erstaunlich und zeigt wie vielversprechend eine 2. / 3. / 4. Generation der Karten sein könnten.

Da die Produkte für den Chinesischen Markt zugeschnitten sind ist abzuwarten inwiefern diese Karten in der westlichen Welt ankommen werden.

Zusätzlich haben AMD / INTEL ja bereits gezeigt das auch gute Hardware an schlechten Treibern scheitern … was leider viel öfter passiert als man denkt.

Intel hat nun mehr Details und einen Teaser zu den ARC Grafikarten veröffentlicht.

Das oben zu sehende Bild stellt die ACM-G10 ( der Vollausbau ) von der ARC Generation dar, welche mit 32 Xe-Kernen ( 4096 FP32-ALUs ), 32 Raytracing Einheiten und 16GB GDDR6 RAM vorbei kommt.

Was die Performance bringt, wird sich erst noch zeigen müssen.

Im gleichen Zuge hat Intel dann auch gleich den Grafiktreiber vorgestellt welche Alle Xe GPUs befeuern wird:

  • Intel Iris Xe („DG1“)
  • Intel Iris Xe Max („DG1“)
  • Intel Arc A350M („Alchemist“)
  • Intel Arc A370M („Alchemist“)
  • Intel Core i-12000 („Alder Lake“)

Dabei kommt die ARC Control getaufte Software zum Einsatz die wie ein Gemisch von AMDs Adrenalin Software und NVIDIAs GeForce Experience daherkommt.

Die Software Funktionalität rangiert vom Treiberupdater über Overclocking und Undervolting bis hin zu Game Library / Optimizer und steuerung von Zusatz Features wie XeSS ( Intels Gegenstück zu NVIDIAs DLSS / AMDs FSR ), Raytracing und Co.

Zum Punkt XeSS steht jetzt fest das es genauso wie AMDs FSR nicht nur bei den eigenen Produkten funktioniert sondern auch bei AMDs und NVIDIAs Grafikarten.

Die Samsung Sparte für Chipherstellung ( Samsung Foundries ) verliert, trotz ähnlichem technischem Stand mit dem Konkurrenten TSMC, immer mehr Kunden an den Konkurrenten.

Letztes Jahr hat sich NVIDIA schon dazu entschieden sich von Samsung aufgrund schlechter Yields ( Ausbeute an Chips Pro Wafer ) als auch Allgemein niedrige Auslieferungszahlen zu trennen und zu TSMC zu wechseln für Zukünftige Produkte.

Jetzt verlässt Samsung der Nächste Große Kunde: Qualcomm. Grund auch hier: für aktuelle Arm basierte CPU / GPUs von Qualcomm ist der Yield erneut alles andere als Erfreulich und die Produktionskosten hierdurch, erneut viel zu hoch. Für Zukünftige Prozessoren, wechselt man ebenfalls zu TSMC, hier ist der Yield generell bei gleicher Fertigungsgröße um einiges besser.

Hierdurch ergibt sich einiges an Konsequenzen: Zum einen hätte Samsung nun Ressourcen für andere Kunden frei, die Schlechtere Ausbeute vergrault / jagt die Kunden dennoch zu TSMC. Eine reduzierung der möglichen Kapazitäten steht im Raum.

Aber auch bei TSMC gibt es Konsequenzen hierdurch: Man hat jetzt schon durch die ganzen Großkunden Kapazitätsprobleme und ein Ausbau der Kapazitäten ist halt nicht eben in 2-3 Tagen durch sondern dauert Mitunter Jahre. Allein die Anschaffung einer, geschweige denn mehrerer Belichtungsmaschinen ist schon seit Jahren Problematisch, da es nur einen Hersteller gibt und man ab Bestellung schon 6 Monate auf ein solches Gerät warten kann, bestellt man mehrere geht die Wartezeit noch Höher … und neben Belichtungsmaschinen benötigt es halt auch Platz diese aufzustellen. Da bestimmte Anforderungen an die Produktion gesetzt werden wie GROßE Reinräume und Belüftungsanlagen ist halt für TSMC auch nicht möglich mal eben Bestehende Fabrikgelände zu kaufen / anzumieten und anzupassen. Man baut traditionell neu und muss sich Aufgrund des hohen Wasserbedarfs in der Produktion ebenfalls an Verfügbaren Standorten orientieren. So ist es aktuell so das TSMC zwar im Ausbau ist an 3 Standorten, aber vor 2024 nicht mit einer Inbetriebnahme der zusätzlichen Ressourcen gerechnet wird.

AMD hat ja bereits mit dem Ryzen 4700s einen BGA Prozessor im Angebot der von diversen Chinesischen Boardherstellern genutzt wird um kostengünstige Boards bereitzustellen. Im Prinzip handelt es sich beim 4700s um den PS5 APU Ausschuss welcher auf GPU Seiten Defekte aufweist und demensprechend deaktiviert ist. Das ganze Konstrukt ist schon seit Mitte letzten Jahres im Umlauf und hat schon merkwürdige Mainboards aus China zur Folge gehabt.

Jetzt kommt die Kehrseite der Geschichte, AMD verkauft über ASROCK nun auch noch die APUs wo die GPU noch in Ordnung sind aber die CPUs (Teil-)Defekt sind. ASROCK bündelte diese APUs zu mehreren auf einer Mining RIG und verkauft diese dann für 13.499 Euro ( 12 CPU Deaktivierte APUs AMD BC-250). Laut Insider Quellen verkauft AMD die APU an Partner wie Asrock für 999 USD je Stück, in Anbetracht das die PS5 ab 450 Euro verkauft wird und nur ein kleiner Teil davon auf die APU von AMD entfällt stellt das einen satten Gewinn für AMD dar.

Gestern wurde die 3090 Ti released und wenig Überraschend weit über den Erwarteten Preisen, ähnlich der 3080 12 GB Variante jedoch nicht durch Scalper sondern durch die Preisvorstellung / Gestaltung seitens Nvidia.

Während die Preisgestaltung seitens Nvidia für die 3090 noch 1499 USD respektive 1649 Euro waren sind es für die 3090 Ti nun 1999 USD bzw. 2249 Euro.

Doch was bekommt man für den Aufpreis?

30903090 Ti% Anstieg
CUDA-Recheneinheiten10.49610.752+ 2,44%
Normal-Takt1470 Mhz1670 Mhz+13,61%
Boost-Takt1700 Mhz1860 Mhz+9,41%
Speichergröße24 GB24 GB
SpeichertypGDDR6xGDDR6x
Max. Temperatur93°C92°C-1,08%
Leistungsaufnahme350W450W+28,57%
Erforderliches Netzteil750W850W+13,33%
Preis1649 €2249 €+36,39%

Also bekommen wir für einen 36,36% Anstieg des Preises im Grunde den gleichen Chip wie vorher, den gleichen RAM wie vorher nur mit einer Übertaktung und einem Hauch mehr Freigeschalteten Recheneinheiten. Gleichzeitig kostet das ganze aber auch 28,57% mehr Strom in der Spitze und benötigt ein Stärkeres Netzteil.

Im Grunde ist die einzige Hardwareänderung gegenüber der normalen 3090 der neue PCie 5.0 Stromstecker.

Benchmarks zeigen einen 5-10% Anstieg der Leistung bei einem Anstieg von 36,39% im Preis als auch 28,57% Anstieg im Stromverbrauch.

Alles in allem ist die 3090 Ti zu diesem Preis alles andere als gut, da auch der Stromverbrauch jenseits von Gut und Böse liegt.

Die RTX 3090 Ti könnte man, wenn man böse wäre als Gerücht abstempeln …

Vorgestellt auf der CES 2022 im Januar mit dem Versprechen bis Ende Januar mehr Details rund um die Karte liefern zu können, wurde es auf einmal sehr still. Zunächst gab es Infos darüber das NVIDIA kurzerhand die Produktion bei den Partnern pausiert hat aufgrund diverser Probleme mit dem Chip. Dann kam Ende Januar und keine weitere Information kam zur Karte und so blieb es auch bisher. NVIDIA selber hat keine Infos rausgegeben und nur die Partner von NVIDIA die Karten herstellen, sind ab und an ums Eck gekommen mit Randinformationen wie es um die neue High End Karte aussehen würde.

Nun steht offensichtlich zum 30. März ein RTX 3090 Ti Event an und die Infos poltern so allmählich ans Tageslicht:

  • 16 Pin PCIe 5.0 Stromstecker ( auch bei Partnerkarten diesmal)
  • der Adapter auf 16 Pin PCIe 5.0 von 3x PCie 8-Pin liegt bei jeder Karte immer bei
  • bis zu 450 Watt Leistungsaufnahme ( +50 Watt )
  • Mindestanforderungen: 1000 Watt Netzteil ( Vorher 850 Watt )
  • ~ 10% Schneller in 4k als die non Ti
  • 2Ghz Boost
  • MSRP soll vor Steuern bei 1499 USD liegen und somit ironischerweise Exakt den gleichen Preis besitzen wie eine 3090

Die Vorliegenden Daten, vor allem der Preis sind natürlich ohne Gewähr, bieten jedoch einen kleinen Ausblick auf das was in wenigen Tagen ( hoffentlich ) kommt.