NVIDIA

All posts tagged NVIDIA

Alles in allem war der Start der 3080 Primär eine Enttäuschung und viele suchen den Fehler bei NVIDIA. Genauso verhält es sich mit dem Ebenso verkacktem Pre Order Start der PS5 … hier wird Sony geblamed …

Problem ist aber das weder NVIDIA noch Sony schuld trifft da die Meisten Geräte beider Hersteller Bot basiert aus den Shops gegriffen wurden.

Wie sich das ganze nun herauskristallisiert geht ein großteil der Bestellungen zurück über den Bot den BounceAlerts für 75€ monatlich anbietet.

Kurz nach den unglaublich schnellem Leeren des Nvidia Shops haben einige Kunden sich bei Bounce Alerts bedankt das sie in der Lage waren zum Teil bis zu 50 Grafikkarten zu Ordern um sie dann über andere Kanäle wie z.B. Ebay weiter zu veräussern.

Einige Zeitschriften sind Hellhörig geworden und haben nachgeforscht. So wie es scheint haben wohl mehr als 100 Downloads des Bots stattgefunden, welche Aufgrund der Auslastung der Seite zw. 1 und 50 Karten für die jeweiligen Nutzer sichern konnten.

Der Hersteller des Bots rechtfertigt das ganze damit das wenn jeder auf das Tool ( den Bot ) Zugriff hätte es auch jeder nutzen würde. Eine Merkwürdige Art illegales verhalten zu Rechtfertigen.

Bei der ARM Übernahme kamen einige Fragen auf denen sich der NVIDIA CEO Jensen Huang stellte und einige Sachen klarstellte.

Zu aller erst: ARM bleibt selbstständig und ist eine Firma unter der NVIDIA Brand. Das soll vor allem dabei helfen den Markt nicht undurchsichtig zu machen.

Dann kamen Fragen auf die sich auf Zukünftige ARM CPUs beziehen, diese werden laut Jensen, von nun an NVIDIA empowered sein, kurzum GPU / AI-Co Prozessoren kommen von nun an ( oder auch erstmalig ) direkt von NVIDIA, und sollen allen Lizenznehmern von ARM selbstverständlich ebenfalls zur Verfügung stehen.

Die Reviews der RTX 3080 FE sollten eigendlich heute um 15:00 Uhr live gehen … doch wie es scheint verzögert sich das ganze nun auf Mittwoch 15:00 Uhr, da Nvidia über das Wochenende Reviewer wohl ein Upate für den NDA Fall mitgeteilt hat.

Hintergrund ist vermeintlich das nicht alle Reviewer In Time ihre Testmodelle erhalten haben sollen, ausgelöst durch Lieferverzug / Überlastung der Lieferwege zu den Reviewern durch Corona. Hier soll der Fairness halber, damit alle genug Zeit haben ihre Reviews abzuschließen erstmal 2 Tage mehr Zeit eingeräumt werden.

Den Launch der Karten am Donnerstag soll das jedoch nicht betreffen. Dieser wird wie geplant stattfinden.

So wie es ausschaut haben sich die Gerüchte bewahrheitet … Nvidia hat ARM gekauft für sage und schreibe 40 Milliarden US Dollar (33,72 Milliarden Euro ).

Gewuppt wurde das ganze aber nicht am Stück sondern über folgende Aufteilung:

  • 12 Milliarden US Dollar in Bar
  • 21,5 Milliarden US Dollar in Form von NVIDIA Stammaktien
  • 5 Milliarden US Dollar in Form von NVIDIA Stammaktien die bei erfolgtem Abschluss und nachfolgendem Erreichen vorgegebener Ziele ausgezahlt werden
  • 1,5 Milliarden direkt an die Mitarbeiter von ARM sofern vorgegebene Ziele erreicht wurden.

Nach aktuellen Informationen wird ARM jedoch nicht in NVIDIA integriert, sondern verbleibt selbstständig in den UK registriert und auch sonst weitestgehend Selbstständig. Nur der Besitz der Firma ist von der Japanischen Softbank auf NVIDIA übergegangen.

Heute beschäftigen wir uns mal mit den Leaks als auch den Fakten die wir wissen über diese Leaks und andere Dinge rund um den neuesten Nvidia Sproß, der uns zumindest vor seinem Release mit seiner Performance und anvisiertem Preis überrascht hat.

Doch ist die Überraschung / die Vorschuss Lorbeeren gerechtfertigt, oder spielt NVIDIA schon wieder Spielchen mit dem Endkunden?

Continue Reading

Das Event ist nun ein paar mehr Tage her, wir haben ein paar Mehr Informationen sehen können und daraus resultierend kommt darum erst jetzt mein Zwischenfazit.

Allen vorran war das Event lange angekündigt ( und lustigerweise erneut in der Küche vom Nvidia Chef ) und beinhaltete neben vielen technischen Details auch viele Überraschungen.

Continue Reading

Was tut man wenn das Totschlagargument für eine neue Generation Grafikkarten, deren Preis zeitgleich Utopische Ausmaße erreicht auf einer Neuen Funktion fußt, die letzten Endes zum Release von 3 Spielen aktiv genutzt wird und auch ein Jahr später die Adaption zu wünschen übriglässt?

In der Regel würde ich sagen auf dem sinnlosem Kram sitzen bleiben … aber NVIDIA versucht nun mit Remakes / aufhübschungen SINN in die vor allem kleineren RTX Karten zu bringen. So befeuert man jetzt sogenannte Remakes bzw. überarbeitungen alter Spiellegenden mit mehr oder minder ausgefeilten Raytracing zusätzen und versucht so einen Kaufanreiz für die … noch immer … sinnlos übertrieben teuren Grafikkarten der GeForce RTX Serie zu geben.

Wären wir in einer perfekten Welt hätte NVIDIA nachgedacht und mit einführung von RTX zunächst Zweigleisig gefahren und sagen wir Turing in 2 Subgenerationen unterteilt ( die 16er Serie zeigt das es halt geht ) und diese so aufgestellt das man zum Beispiel eine GTX 2080 Ti gehabt hätte, welche Roundabout 700- 850 Euro gekostet hätte und eine RTX 2080 Ti zum allgemein bekanntem Preis .. genauso GTX/RTX 2080 2070 (Super) … aber Nvidia hat gepennt und sich halt nicht Kundenorientiert verhalten und wollte mit der Brechstange ( Vorzeitiges Phaseout / allgemeines Phaseout der 1060/1070/1080 Serien ) die Kundschaft auf die RTX Serie zwingen, ein verspäteter Start der GTX16 Serie macht es da nicht besser, und ihnen einen Premium Preis abzuluchsen. Und so wurden Grafikkarten welche Namentlich die 60er 70er Varianten beerbten aber auf dem Niveau der darüberliegenden 70er und 80er Vorläufer lagen zum höheren Preis als die Vorläufer in den höheren Sparten verkauft … dreist … einfach nur dreist.

Nun Versucht man die „Alternativen“ von AMD zu Kontern indem man RTX auf den kleinen 2060 / 2070er Karten zumindest für „Klassiker“ Sinnvoll nutzbar macht … denn genau diese Karten haben den Sinn oder besser Unsinn der RTX Funktion von Anfang an in Frage gestellt da RTX auf diesen Karten technisch zwar vorhanden war, aber die Performance in den Existierenden Spielen eher massiv enttäuschend.

Ich rate immernoch vom Kauf von RTX Karten ab und sofern möglich zum Kauf / nutzung von GTX 10er Serie Karten, welche bis hoch zur 1080 Ti sehr gut mithalten können. Sollte mehr performance benötigt werden kann man ( sofern man preislich nicht abgeschreckt wird ) auch zur 2080Ti greifen, welche wirklich ein Leistungsplus darstellt allerdings zu einem dreisten Premiumpreis. Der Griff zur aktuellen Titan ist derweil abgeraten, da auch hier der Preis in Gefilde gestiegen ist , die das Wort Lächerlich kaum Umschreiben kann. Eine gute Alternative steht im Low End Segment mit den RX 570 / 580 / 590 und jetzt auch bald den RX 5500 Karten bereit und im Mittlerem Segment bis auf das Niveau einer 2070 S die RX 5700 / 5700 XT welche Preislich durchaus attraktiver sind und durch ihre neue RDNA auch noch Performance Wachstum beim Kunden über die nächsten 12-24 Monate Versprechen ( Treiberoptimierungen von AMD für neue Architekturen verhalten sich erwartungsgemäß so ).

Nvidia überrascht immer wieder mit der Turing Architektur, nur ist es immer wieder ein Glücksspiel ob Negativ, richtig Negativ, extrem Negativ oder mal halt ein Wenig positiv.
Und dann gibt es wieder News die ein wenig in der Mitte angesiedelt sind. Nvidia hat es bis Dato nicht geschafft alle Funktionen der Turing Generation auszuspielen und die Ergebnisse haben mal mehr mal minder gezeigt, wie unausgereift vor allem Raytracing ist.
Fassen wir das ganze mal am Beispiel Battlefield V zusammen:
Die 2080Ti schafft bei 4k solide 80-100 FPS, was eine Super Leistung für eine Single GPU Karte ist. Schaltet man jedoch Raytracing ein, schrumpft die Auflösung auf 1080p bei 65-80 FPS ein. Von 4k60 ist hier keine Rede mehr. Schlimmer wird das Bild bei den kleineren Turing Chips wo die FPS so schon niedriger liegen.
Nun hat NVIDIA neben Raytracing auch noch DLSS im Petto, was im Prinzip eine mit KI aufgemotzte Kantenglättung ist die Effizienter arbeitet als jede bisherige, dafür aber immense Rechenleistung benötigt, welche jedoch auf externen Servern durchgeführt (trainiert) wurde und dann per KI Template im Treiber an den KI Part der Turing Chips übergeben wird und dort sehr effizient abgearbeitet wird. Allerdings war die Implementierung bisher immer ein wenig getrübt von Qualitätseinschränkungen bis hin zu unerwartet schlechten Leistung von DLSS. DLSS soll es unter anderem ermöglichen Spiele in niedrigen Auflösungen laufen zu lassen ( 720p zum Beispiel ) und das Spiel aussehen zu lassen als laufe es auf weit höheren Auflösungen ( 720p -> 1080p z.B. ), und das ohne großen Qualitätsverlust.
Im Falle von BF V soll nun der Performance Sprung den negativ Impact von Raytracing auffangen, sodass unter anderem von NVIDIA der Vergleich Raytracing / DLSS Off 4k70 zu Raytracing / DLSS On 4k60 möglich sein soll, auch wenn das Spiel in wirklichkeit wohl nur irgendwo zwischen 1080p und 2k laufen wird. Erste Screenshots und Beispiele sehen gut aus und machen optimistisch, lassen aber auch durchblicken das DLSS auch nach wie vor an der dauer / qualität des trainings hängt und das es auch nur dann gut funktioniert. Am Beispiel von Final Fantasy 15 kann man auch sehen das die Steigerung nicht immer die 50 – 70 % Erreicht die erwartet wird sondern auch mal nur mager mit 10 – 20 % ausfallen kann.

Nvidia hat kurz nach dem 417.35 Treiber nun den 417.58 Hotfix Treiber nachgeschoben, im Prinzip behebt dieser den im letzten Treiber eingeschlichenen Bug mit DisplayPort Angeschlosenen Monitoren, welche aus dem Standby nichtmehr aufwachen wollten. Desweiteren sind Bugfixxes und Performance Verbesserungen für einige Spiele enthalten.

Der Download ist wie immer über die Nvidia Seite direkt möglich: https://international.download.nvidia.com/Windows/417.58hf/417.58-desktop-notebook-win10-64bit-international-whql.hf.exe

Jetzt wo HBM2 nichtmehr eingesetzt wird auf Consumer Karten gibt es hier wieder Neuigeiten: Offenbar ist nun bei Vollausbau HBM mit Pro Grafikchip 96 GB möglich, erreicht wird das durch Pro Stack 24GB Grafikspeicher.

Im Privatkunden Bereich unsinnig aber im Business Bereich, vor allem bei AI Lösungen und Rendering dürfte das den nötigen Push geben.

Allerdings ist GDDR6 was die Performance Betriff nah an HBM2 dran und ist zudem Kostengünstiger und Unkomplizierter zu verwenden, so wird sich mit der 3. Generation HBM entscheiden ob es weiter Daseinsberechtigung hat oder ob weiterhin der Einzigste Pluspunkt die eingesparte Fläche auf den Grafikkarten ist für die Speicherchips die dann direkt an den CPU Kern angehängt sind.