Performance

All posts tagged Performance

Der Launch von Cyberpunk 2077 liegt nun schon ein paar Tage hinter uns und man kann sagen was man will, das Spiel hinterlässt ingame Gespaltene Köpfe bzw. outgame Gespaltene Meinungen.

Hier haben wir zum einen den Spielerischen Inhalt der sich gelinde gesagt im Aktuellem Umfang nicht verstecken muss vor anderen Spielen, sondern vielmehr als Vorbild genommen werden kann, was Spieltiefe, Einbindung der auch kleinsten Nebenmission in das Characterbuilding betrifft. Aber auch die Geschickte Einbindung vieler Memes aus der aktuellen Zeit ( z.B. Glados aus Portal 2 ) oder auch die Integrierung vieler Influencer von verschiedensten Plattformen ins Spiel ( z.b. Hand Of Blood, Gronkh, Anni the Duck, Peter von den Pietsmiets aber auch viele Englischsprachige Stars wie Shroud ). Und natürlich die Kirsche oben drauf , für einen Großteil des Spiels wird man von Keanu Reeves im Spiel begleitet.

All das legt eine Solide Grundlage für das Spiel fest … bis man die Technische Seite sieht, welchem dem Spiel zum einen einen extrem guten Look verpasst aber auch zum anderen entsprechende Hardwareanforderungen abverlangt und auf der anderen Seite wegen dem Umfang des Spiels Bugs und Co. quasi vorprogramiert sind. Genau das bricht CD Project RED offenbar das Genick da schwache Systeme, Systeme die auf HDDs setzen und Vor allem Last Gen Konsolen die einen Release bekommen haben, massive Probleme haben das Spiel in einem Ansehnlichem oder Performanten Umfang zu spielen. Man fühlt sich 11 Jahre zurückversetzt zum Release von Crysis 1 und dessen Hardwarehunger, mit dem Unterschied das man das Spiel hier weit genug runterschrauben kann, damit man sogar mit einer RX 480 noch Spielbar bleibt. Viel mehr muss man an dieser Stelle erwähnen das Cyberpunk darauf optimiert wurde auch mit 30-50 FPS noch flüssig spielbar zu sein. Auch der Fakt das Grafikkarten die vor ein paar Monaten erst released wurden und > 1500 Euro kosten mit dem Spiel auf Maximaler Auflösung und Details samt RTX ohne DLSS ihre Probleme spricht Bände über das was in diesem Spiel von den jeweiligen Plattformen auf denen sie gespielt werden verlangt wird.

Wegen dem Last Gen Desaster, haben viele Anleger bei CD Project RED mit Klagen gedroht und die Presse hat das Spiel zu einem Misserfolg erklärt … betrachtet man jedoch das ganze, und zwar das die PC Version als auch Next Gen Variante so ziemlich jeden Verkaufs und Spiel Rekord für Singleplayer Games gebrochen hat, kann zumindest da wehement wiedersprochen werden. CD Project RED arbeitet an Bug Fixes für das Spiel, vor allem für die Last Gen, welche die Performance massiv erhöhen sollte und vor allem auch den Ein oder Anderen Bug beheben sollte, bis dahin sollte der Hinweis genügen … dass Cyberpunk alles andere als ein Misserfolg ist.

Nvidia überrascht immer wieder mit der Turing Architektur, nur ist es immer wieder ein Glücksspiel ob Negativ, richtig Negativ, extrem Negativ oder mal halt ein Wenig positiv.
Und dann gibt es wieder News die ein wenig in der Mitte angesiedelt sind. Nvidia hat es bis Dato nicht geschafft alle Funktionen der Turing Generation auszuspielen und die Ergebnisse haben mal mehr mal minder gezeigt, wie unausgereift vor allem Raytracing ist.
Fassen wir das ganze mal am Beispiel Battlefield V zusammen:
Die 2080Ti schafft bei 4k solide 80-100 FPS, was eine Super Leistung für eine Single GPU Karte ist. Schaltet man jedoch Raytracing ein, schrumpft die Auflösung auf 1080p bei 65-80 FPS ein. Von 4k60 ist hier keine Rede mehr. Schlimmer wird das Bild bei den kleineren Turing Chips wo die FPS so schon niedriger liegen.
Nun hat NVIDIA neben Raytracing auch noch DLSS im Petto, was im Prinzip eine mit KI aufgemotzte Kantenglättung ist die Effizienter arbeitet als jede bisherige, dafür aber immense Rechenleistung benötigt, welche jedoch auf externen Servern durchgeführt (trainiert) wurde und dann per KI Template im Treiber an den KI Part der Turing Chips übergeben wird und dort sehr effizient abgearbeitet wird. Allerdings war die Implementierung bisher immer ein wenig getrübt von Qualitätseinschränkungen bis hin zu unerwartet schlechten Leistung von DLSS. DLSS soll es unter anderem ermöglichen Spiele in niedrigen Auflösungen laufen zu lassen ( 720p zum Beispiel ) und das Spiel aussehen zu lassen als laufe es auf weit höheren Auflösungen ( 720p -> 1080p z.B. ), und das ohne großen Qualitätsverlust.
Im Falle von BF V soll nun der Performance Sprung den negativ Impact von Raytracing auffangen, sodass unter anderem von NVIDIA der Vergleich Raytracing / DLSS Off 4k70 zu Raytracing / DLSS On 4k60 möglich sein soll, auch wenn das Spiel in wirklichkeit wohl nur irgendwo zwischen 1080p und 2k laufen wird. Erste Screenshots und Beispiele sehen gut aus und machen optimistisch, lassen aber auch durchblicken das DLSS auch nach wie vor an der dauer / qualität des trainings hängt und das es auch nur dann gut funktioniert. Am Beispiel von Final Fantasy 15 kann man auch sehen das die Steigerung nicht immer die 50 – 70 % Erreicht die erwartet wird sondern auch mal nur mager mit 10 – 20 % ausfallen kann.

Auch Battlefield hat gestern einen Blitzpatch bekommen, welche unter anderem ein paar Kleinere Bugs, Performance Probleme als auch Abstürze in den Griff bekommen soll. Alles in allem ist dies auch Bitter nötig, da nach dem DXR Patch letzte Woche die PErformance Aller Spieler ohne Turing Karten aufeinmal eingebrochen ist obwohl der Patch ja die DXR Leistung und dort auch aktuell nur bei Turing Karten erhöhen sollte.

Feiert Intel auf der einen Seite immer wieder Verkaufsvorsprünge und seine neuen Architekturen so fällt dem Technik News lesenden auf das dieses Jahr dennoch wohl eher ein Schlechtes für Intel ist. Die Konkurrenz schließt unerbittlich auf zu Preisen die einfach lächerlich sind im Vergleich zu den eigenen, neue Produkte wie die x299 Plattform legen einen Fragwürdigen Start hin und das noch ohne die Vorstellung des Core i9 mit 28 Kernen unter Stickstoff.

Aber auch Probleme mit der Sicherheit galt es dieses Jahr immer wieder zu beklagen. Angefangen hat das Jahr mit Meltdown / Spectre, die mehr oder Minder alle CPUs betroffen haben aber mehrfach die Intel CPUs anfällig gegen entsprechende Angriffe gemacht haben. Später kam noch Spectre-NG dazu welches nur Intel Prozessoren betraf und gegen die die bisherigen Gegenmaßnahmen erfolglos waren. Nun ist ans Licht gekommen das auch anderorts in allen Core i der 2ten Generation bis heute und allen Xeons 2 weitere Bugs schlummern mit den Namen Foreshadow und L1TF, beide beziehen sich mehr oder minder auf Bereiche die nichts mit Meltdown oder Spectre zu tun haben und müssen beide erneut mit Microcode und Betriebsystem Updates abgefangen werden.

Wie auch bei den Meltdown / Spectre Patches, ist davon auszugehen das Erneut Performance auf der Strecke bleiben wird. Da die Updates gegen diese Lücken nicht optional sind, sollten aber alle Intel CPUs gleichzeitig langsamer werden. Wie hart der Impact sein wird ist bislang offen.

Das Battlefield schon immer ein CPU lastiger Shooter war ist ja allgemein bekannt, jedoch hat sich in der ALPHA des neuen  Spiels gezeigt das der Vünfte Teil wohl auch hier (zumindest während der Alpha) neue Höhen erreicht. Bei Performance Tests von Grafikkarten Zeigte sich das AMD GPUs meistens ein gutes Stück vor den Nvidia Karten lagen, bis auf die 1080 Ti, die durch die Bank weg eine Höhere Performance bot als alle anderen GPUs. Bei genauerer Betrachtung fiel auf das der Grund nicht die GPUs waren, die besser abgestimmt auf die Engine sind, sondern das die CPUs allesamt ins CPU Limit liefen, und da AMD Karten bei Maximaler CPU last effektiver arbeiten als Nvidia Karten, kam es zu diesem verwirrendem Ergebnis.

Wird den GPUs eine identische High End CPU wie ein Core i7 8700k oder ein Ryzen 7 2700x zur Seite gestellt und die Tests wiederholte, zeigt sich das übliche Performance Bild, alle Nvidia GPUs sind durch die Bank weg schneller als ihre AMD Gegenstücke … wenig verwunderlich, da ja einer der Dice Partner Nvidia ist und das Spiel später auch das Geforce Powered Logo erhalten soll.

Bleibt zu hoffen das an der CPU Last noch geschraubt wird damit man auch gute Ergebnisse mit günstigeren ( oder älteren ) CPUs bekommen kann.

Das Spiel ist noch nichtmal im regulären verkauf, schon gibt es die ersten großen Aufreger:

Das Spiel scheint auf allen Plattformen in Unregelmäßigen Abständen und vor allem ohne FPS einbrüche einfach massiv langsam zu werden ohne das ein Grund ersichtlich wäre. Vermutet wird hier das die Onlineanbindung des Spiels eine Rolle spielt und die Probleme durch aktuelle Serverüberlastung verursacht werden. Ob diese zum Release aber behoben sind, muss sich erst noch zeigen.

Ein größeres Problem sind die laut Entwickler für die Deckung der Entwicklungskosten notwendigen Mikrotransaktionen, welche nun auch bei Need For Speed Einzug halten und neben Optischen Veränderungen auch normal bekommbare Performance Upgrades beinhalten. Erneut werden diese „Abkürzungen“ als Fair betitelt … was die Spieler erneut nicht so sehen, da da Spiel durch diese Upgrades weitaus einfacher wird und so auch im Multiplayer Verzerrungen im Können entstehen könnten.

Beim Vergleich der Spiel Ladezeiten von dem neuen Zelda Spiel auf der Nintendo Switch sind folgende Werte aufgetreten

  • von der Cartridge ( RETAIL ) dauert der Spielstart 35 Sekunden
  • von einer MICROSD Karte ( DIGITAL DL ) dauert der Spielstart 34 Sekunden
  • vom internem Speicher ( DIGITAL DL ) dauert der Spielstart 30 Sekunden

Der Interne Speicher scheint also schneller zu sein als SDXHC Speicherkarten… interessant, und traurig zugleich das die Speicherausstattung von 32 GB wohl nicht für mehr als 1 – 2 Spiele langen wird.

So allmählich häufen sich die Infos zu der 8 Generation der Samsung Galaxy Geräte. Vor ein paar Tagen sind bereits erste , durchaus Ernüchternde Benchmarks zum Galaxy S8+ aufgetaucht, die durch die Bank weg hinter der Performance eines S7 lagen. Nun sind jedoch erste Benchmarks vom S8 aufgetaucht. Dieses kann sich nun durch die Bank weg vor das S7 setzen, allem Vorran durch den anderen SOC der nun erstmalig eingesetzt wird, den Snapdragon 835 von Qualcom.

Auffällig ist das entgegen der Gerüchte das Gerät nur 4 GB Ram ausgestattet ist und nicht mit 6 und das es desweiteren nur mit 1.9 Ghz lief, während die Maximal Speccs von Qualcom bis zu 3 Ghz für den Chip vorsehen.

Man ist gespannt was Samsung da so auf den Markt wirft, aber allen vorran die Tatsache des es keine Non Edge Version mehr gibt macht die Sache nicht wirklich angenehmer für Samsung.

Es ist zwar schon ein paar Wochen her, allerdings ist es mir eine News Wert:

Im Zuge meiner Vorebereitung für „The Division“ gab es auf meinem Hauptsystem ein mittleres HW Upgrade.

Die Gigabyte Windforce HD7970 OC 3 GB verließ mein System in die Hände einer neuen Besitzerin und eine Sapphire R9 390x 8GB NITRO wanderte in mein System hinein.

Desweiteren wurden meine 8GB Corsair 1600 Mhz DDR3 Arbeitsspeicher durch 16 GB Kingston Fury 1833 Mhz DDR3 Arbeitsspeicher abgelöst.

Overall hat sich die Systemperformance damit um gut 30 – 40% erhöht.

Da ein Test mit dem Ziel Spiel ausstand, hier der aktuelle vergleich, mit der alten Karte lief diese auf 100% Auslast bei 60% CPU Last, unteren Mittleren Details und ca. 30-45 FPS, nach dem Update läuft alles in Hohen Details bei guten 50-60 FPS, die Auslastung GPU liegt hierbei im Schnitt bei 90% und die CPU ist nun bei knapp 95-100% Systemlast. Wie man sieht, ist die Limitierung von GPU auf CPU übergegangen, das heißt vielmehr kann man nun nicht mehr rausholen.