Hardware

2014 Versprach Angela Merkel das der Breitbandausbau im Mittelalterlichen Dunkeldeutschland bis ende 2018 eine 100% Abdeckung mit 50 Mbit erreicht haben werde. Nun gaben die Verantwortlichen für den Breitbandausbau bekannt das dieses Ziel stark verfehlt wurde, und man aktuell ( 6 Monate Später! ) bei ca. 81% liege. Das Neu gesteckte Ziel bis 2025 dann Bundesweit Flächendeckend Gigabit anbieten zu können, klingt da wie ein Schlechter Witz.

Doch woran ist das ganze gescheitert? Waren die Ambitionen zu hoch? … Die Kosten nicht Deckbar? … Oder einfach alle zu Unfähig?
Letzten endes eine Mischung aus allen Punkten + der deutschen Bürokratie:

Für Die Aktion Breitbandausbau wurden für die Legislaturperiode 2014 – 2018 insgesammt 4,4 Milliarden Euro für die Finanzierung / Bezuschussung des Breitbandausbaus vorgesehen. Genutzt wurden 115 Millionen Euro ( in etwa 3% ) davon.
Also liegt das Problem bei den Bauherren / Providern die hier aktiv werden sollten? … Eher weniger: Die Beantragung ist durchaus kompliziert und komplex, und benötigt von BEANTRAGUNG bis AUSSCHÜTTUNG durchschnittlich 25 Monate! Da verständlicherwesie kein Anbieter der das auf eigene Kosten nicht wuppen wollte oder konnte in Vorkasse gegangen ist , wurden Viele Projekte garnicht erst angegangen … und die Bürokratie hats dann versaut.

Also an dieser Stelle nochmal ein Danke für nichts an die deutsche Bürokratie und die Unfähigkeit der aktuellen als auch jeder anderen bisher an der Macht gewesenen Regierung!

In nichtmal 3 Wochen ist es soweit und die Ryzen 3000 er Serie startet durch und mit der Serie auch die Mainboards mit dem Chipsatz der x570er Reihe … und aktuell wissen wir zwar viele Eckdaten und Infos … aber Essentielle Dinge fehlen noch.

So wissen wir inzwischen, das bis auf 2 oder 3 Ausnahmen wohl kein Mainboard ohne aktive Chipsatzkühlung ( 30 -50 mm Lüfter über dem Chipset ) auskommen wird. Diese aber wohl eher Semipassiv arbeiten werde, und nur bei stark steigenden Temperaturen vom Chipsatz aktiv wird. Wann das ist, wurde nun auch allmählich bekannt: ab 55°C Chipsatztemperatur wird er im großen andrehen und in mehreren Phasen bis 100% ( Chipset Temperatur ~75°C ) hochdrehen. Die Temperaturwerte sollen jedoch nur erreicht werden wenn der Chipsatz starke Auslastungen über längere Zeiträume vom PCIe 4.0 haben wird, was nach aktueller Hardware Lage nur mit PCIe 4.0 NVME SSDs wohl schwerlich der Fall sein wird. Auch ist in Frage gestellt ob eine PCIe4.0 GPU / bzw. GPU + SSDs diese Auslastung erzeugen können. Andere Hardware ist für die Neue Schnittstelle bisher eh nicht bekannt, und bei den GPUs handelt es sich immernoch um Midrange Produkte. Nach aktuellem Stand wird davon ausgegangen das die Lüfter in gut belüfteten Systemen selten bis garnicht anlaufen werden.

Andere noch offene / nur Teilweise beantwortete Fragen betreffen die Boards zum Release und kurz danach: Laut MSI / Gigabyte / Asus werden wohl weit über 50 Mainboards zum Marktstart erwartet mit x570 Chipsatz, vorgestellt wurden jedoch bisher nur ca. 20 davon und die meisten in Preislichen gefilden die jenseits von 200 Euro liegen. Angeführt wird das ganze von einem 780 Dollar Board von Gigabyte mit eingebauter Wasserkühlung. Klar geht man davon aus das der neue Chipsatz, vor allem wegen PCIe 4.0 Support definitv Geld kosten wird weil schon eine Aktive Kühlung hier Vorraussetzung ist. Die frage steht also im Raum: wird es merkbar günstigere Boards mit x570 geben?

Auch die Sonstige Ausstattung der Boards wirft mehr Fragen auf als nötig: Wie sind wieviele Lanes PCIe 4 angebunden? … sind einige eventuell PCIe 3.0 connected? Gibt es beim Einsatz von M.2 SSDs bzw. NVME SSDs limitierungen hinsichtlich der SATA / PCIe Ports?

Fragen über Fragen die sich hoffentlich bald klären aber fast genauso Wichtig sind wie: wo ist B550? oder A520? Die kleinen Chipsätze wurden bisher weder angekündigt noch gezeigt … es wird aber vermutet das hier mit Asmedia zusammen gearbeitet wird sie bis / zum Jahreswechsel vorstellen zu können. Da die Mitarbeiter bei Asmedia bei den Chips für PCIe 4.0 noch etwas hinterherhängen wird es diesmal merkbar später.

Auch später und aus Zusammenarbeit von AMD / Asmedia Resultierend wurde bereits ein X590 Chipsatz Entdeckt, welcher wohl für AM4 gedacht ist und nicht den x570 PCH der alleine von AMD produziert wird beinhalten wird. Hier könnte es sich um eine aufgebohrte x570 handeln welcher mehr kann und gleichzeitig günstiger sein könnte, da Asmedia mit Involviert ist. Eventuell handelt es sich auch um das Bindeglied zw. TR4 / SP1 Plattform mit Threadripper 3000 Serie Prozessoren und den Ryzen 3000 Serie Prozessoren auf AM4, da auf TR4 der Chipsatz x599 heißen sollte.

Sowohl zum Event der Computex als auch zur E3 lies AMD die Katze aus dem Sack und leerte vor allem Intel das Fürchten …

Während der blaue Konkurrent auf der Stelle tritt und anstatt Fortschritt eher Seitwärts Schritte mit Tendenz nach hinten vollbringt, macht sich das Rote Lager den Branchenprimus zu erreichen, zu überholen und die Rücklichter zu zeigen … und das in jeder Erdenklichen Art.

Ryzen 3000 ist das was AMD mit der 1. Ryzen Generation versprochen hat … es handelt sich nichtmehr um eine Preisliche alternative mit schwächerer IPC wo man sich nur in Multi Core Leistung hat duellieren können sondern nun um ein Wahres Monster:

  • IPC auf dem Niveau von 5 – 10% über der des 9900k! das heist, bei gleicher Kernzahl mindestens gleicher Speed.
  • Stark reduzierter Stromverbrauch, die 3. Generation profitiert von den 7 nm hervorragend und verbraucht im Verhältnis weit weniger als ein Ebenbürdier Intel
  • Höhere Taktraten, auch bei hoher Kernzahl. Auch hier hat AMD die Nase vorne, subjektiv kommt es einem Sogar so vor das umsomehr Kerne in Nutzung sind, die höchstmögliche Taktfrequenz angehoben wird.
  • Besseres OC Potential: Wenn viele Cores einen hohen Takt erreichen, müsste es bei wenigen Cores einfacher wenn nicht sogar höher möglich sein.
  • Überraschungen beim Core Count … dazu gleich mehr
  • PCI-E 4.0 all Over the place
  • Immernoch hohe kompatibiliät mit 1. / 2. Generation Mainboards

Aber gehen wir doch einfach auf den ein oder anderen Punkt ein:

AMD überaschte nicht nur mit dem Anfang des Jahres gezeigten 8 Kerner als Ryzen 7 3700x ( Cores: 8/16 Takt: 3,6 / 4,4 GHz / TDP: 65 W / Preis: 329 USD ) der auf voller Performance einen i7 9700k Vernichtete ( und auch ohne Probleme den i9 9900k erreichte ) sondern auch mit einem höher getaktetem 8 Kerner als Ryzen 7 3800X ( Cores: 8/16 / Takt: 3,9 / 4,5 GHz / TDP: 105 W / Preis: 399 USD ) welcher offiziell gegen den 9900k antreten wird. Der x800x Chip ist also nach einer Generation Pause wieder da.
Desweiteren kam die Überraschung auf der Computex durch einen weiteren Spross der Zen 2 Generation in Form des Ryzen 9 3900x ( Cores: 12/24 / Takt: 3,8 / 4,6 GHz / TDP:105 W / Preis: 499 USD ) Welcher mit satten 12 Kernen aufwartet , ebenfalls auf AM4 und es mit CPUs von Intels HEDT Plattform aufnehmen sollte. Auffällig ist auch hier das der Boost Takt weiter ansteigt anstatt abzufallen, bei fast identischem Basistakt zum 3800x was schon an sich erstaunlich ist, und ebenfalls identischer TDP.
Nach Ende der Computex war bewusst das ZEN 2 im 3900x in 2 Chiplets arbeitet mit je 6 von 8 Kernen, was heißen wird das AMD noch was in der Hinterhand hatte … und AMD lies die katze auf der e3 aus dem Sack: Im September folgt der Ryzen 9 3950x auf AM4 / x570 mit 16 Kernen! ( Cores: 16/32 / Takt: 3,5 / 4,7 GHz / TDP: 105 W / Preis: 749 USD ). Und ja dieses Monster ist weiterhin im 105W TDP Mantel und erreicht erneut HÖHERE Boost Frequenzen bei für den CoreCount doch erstaunlich hohem Basistakt.

Starten sollen alle Ryzen 7 / 9 CPUS ( bis auf den 3950x ) am 7.7.2019 der 3950x folgt zum September.

AMD nimmt so allmählich anlauf zum Rundumschlag gegen NVIDIA … allerdings diesmal wirklich gezielt im Low bis Midrange bereich. Das Zauberwort heißt NAVI … und dahinter versteckt sich überraschenderweise kein GCN x.x sondern RDNA …

RDNA ist sozusagend der Nachfolger für GCN, welches aktuell in den High End Vega Karten so langsam Outgephased werden wird, bis auch dort im High End Segment RDNA seinen Einsatz findet ( Wahrscheinlich Navi 20/21 bzw. Navi „2“.GCN is bei NVIDIA seit der ATI HD 5000 er Serie im Einsatz und zog sich durch die HD 6000 / 7000 Serie über die Rx 200 / 300 / 400 / 500 Serie bis hin zu den High end Karten Fiji / Vega wie ein Roter faden durch die letzten 6-7 Jahre von AMDs Grafikkarten

RDNA wird die Zukunft , so sieht es zumindest AMD … da RDNA in Verbindung mit 7nm viele Vorteile bietet … die Archtiektur ist einfach schneller, Effizienter und moderner.

Die ersten Karten kommen im July und schon jetzt takten sie sehr hoch, mit einem Vergleichsweise niedrigem Stromverbrauch und erstaunlicher Performance. Zum Teil ist man durch RDNA in der Lage aktuelle VEGA / RTX Karten bis hin zur 2070 und teilweise sogar der 2080 anzugreifen. Der Verzicht auf HBM2 und der Wechsel zu GDDR6 ermöglichen zudem den Preis sehr Konkurrenzfähig zu gestalten.

So wie sich das ganze herauskristalisiert, versucht AMD den gleichen Schritt zu gehen wie damals bei Intel und gleiche Performance bei niedrigerem Preis bieten zu wollen und dann in einer Späteren Navi 2 Variante auch das High End Segment zu bedienen und Features zu bieten die aktuell die Konkurrenz als Innovation feil Bietet ( 2. Gen Navi wird wahrscheinlich Raytracing in Hardware bieten ).

Der Launch für 3 ( eigendlich sind es nur 2 Karten ) der Navi Reihe ist vorraussichtlich der 7.7.2019 für die karten RX 5700 XT ( 449 US Dollar ) als auch der RX 5700 ( 379 US Dollar ). Eine Weitere Karte wird die RX 5700 XT 50th Annivisary Edition für 499 US Dollar, welche im Prinzip eine Overclockte RX 5700 XT ist.

Laut AMD Tests sollte die RX 5700 in Punkto Leistung die RTX 2060 übertreffen und die RX 5700 XT an der RTX 2070 vorbeiziehen. Da die Spezialausgabe mit 10% OC daherkommt sollte sie in der Lage sein auch die RTX 2080 zu erreichen.

Nvidia überrascht immer wieder mit der Turing Architektur, nur ist es immer wieder ein Glücksspiel ob Negativ, richtig Negativ, extrem Negativ oder mal halt ein Wenig positiv.
Und dann gibt es wieder News die ein wenig in der Mitte angesiedelt sind. Nvidia hat es bis Dato nicht geschafft alle Funktionen der Turing Generation auszuspielen und die Ergebnisse haben mal mehr mal minder gezeigt, wie unausgereift vor allem Raytracing ist.
Fassen wir das ganze mal am Beispiel Battlefield V zusammen:
Die 2080Ti schafft bei 4k solide 80-100 FPS, was eine Super Leistung für eine Single GPU Karte ist. Schaltet man jedoch Raytracing ein, schrumpft die Auflösung auf 1080p bei 65-80 FPS ein. Von 4k60 ist hier keine Rede mehr. Schlimmer wird das Bild bei den kleineren Turing Chips wo die FPS so schon niedriger liegen.
Nun hat NVIDIA neben Raytracing auch noch DLSS im Petto, was im Prinzip eine mit KI aufgemotzte Kantenglättung ist die Effizienter arbeitet als jede bisherige, dafür aber immense Rechenleistung benötigt, welche jedoch auf externen Servern durchgeführt (trainiert) wurde und dann per KI Template im Treiber an den KI Part der Turing Chips übergeben wird und dort sehr effizient abgearbeitet wird. Allerdings war die Implementierung bisher immer ein wenig getrübt von Qualitätseinschränkungen bis hin zu unerwartet schlechten Leistung von DLSS. DLSS soll es unter anderem ermöglichen Spiele in niedrigen Auflösungen laufen zu lassen ( 720p zum Beispiel ) und das Spiel aussehen zu lassen als laufe es auf weit höheren Auflösungen ( 720p -> 1080p z.B. ), und das ohne großen Qualitätsverlust.
Im Falle von BF V soll nun der Performance Sprung den negativ Impact von Raytracing auffangen, sodass unter anderem von NVIDIA der Vergleich Raytracing / DLSS Off 4k70 zu Raytracing / DLSS On 4k60 möglich sein soll, auch wenn das Spiel in wirklichkeit wohl nur irgendwo zwischen 1080p und 2k laufen wird. Erste Screenshots und Beispiele sehen gut aus und machen optimistisch, lassen aber auch durchblicken das DLSS auch nach wie vor an der dauer / qualität des trainings hängt und das es auch nur dann gut funktioniert. Am Beispiel von Final Fantasy 15 kann man auch sehen das die Steigerung nicht immer die 50 – 70 % Erreicht die erwartet wird sondern auch mal nur mager mit 10 – 20 % ausfallen kann.

Star Citizen hat unter Chris Roberts Führung, inzwischen 211 Millionen Dollar Einnahmen generiert und somit für das Open Universe genug Geld vorrätig für die Weitere Entwicklung. Da es in der Vergangenheit hin und wieder bezüglich der Nutzung der Gelder irritierungen und vor allem Probleme gab verspricht man für 2019 mehr Transparenz für die Nutzung der Gelder.
Im gleichen Zuge wurde auch der Single Player Teil von Star Citizen angesprochen: hier gibt es in der Tat einen Seperaten Topf aus dem Gelder bezogen werden um die Singleplayerkampagne zu ermöglichen. Ziel ist ein Beta Release des Single Players 2020 und um das zu Ermöglichen werden aktuell für eben diese Kampagne neue Investoren gesucht.

Der Start ins Jahr 2019 könnte für Playstation besitzer nicht besser sein, da zumindest ein Knaller mit enthalten ist:

  • Steep (Playstation 4)
  • Portal Knights (Playstation 4)
  • Zone of the Enders HD Collection (Playstation 3)
  • Amplitude (Playstation 3)
  • Fallen Legion: Flames of Rebellion (Playstation Vita & Playstation 4)
  • Super Mutant Alien Assault (Playstation Vita)

Mit Steep ist einmal mehr ein Triple A Game im PS+ Sortiment aufgetaucht welcher vor nicht allzulangerzeit als Geheimtip galt.

Nvidia hat kurz nach dem 417.35 Treiber nun den 417.58 Hotfix Treiber nachgeschoben, im Prinzip behebt dieser den im letzten Treiber eingeschlichenen Bug mit DisplayPort Angeschlosenen Monitoren, welche aus dem Standby nichtmehr aufwachen wollten. Desweiteren sind Bugfixxes und Performance Verbesserungen für einige Spiele enthalten.

Der Download ist wie immer über die Nvidia Seite direkt möglich: https://international.download.nvidia.com/Windows/417.58hf/417.58-desktop-notebook-win10-64bit-international-whql.hf.exe

Das Neue iPAD Pro in 11 und 12 Zoll kommt mitunter bei einigen Kunden direkt aus der Fabrik verbogen an bzw. verbiegt sich binnen weniger Tage nach dem Auspacken leicht, ohne das zutun der Kunden.

Dieses Gerücht machte die letzten Wochen die Runde, und Apple kommentiere das ganze nun überraschend: Ja es kann vorkommen das Vereinzelte Geräte leicht verbogen beim Kunden eintreffen oder nach kurzer Zeit eine leichte Biegung erhalten.
Das ganze hängt mit dem Abkühlprozess von Metall und Kunststoff nach der Fertigung der Tablets zusammen und soll in keinster Weise die Funktionsweise beeinflussen.

Neben dieser Überraschung von Apple kam gleich die nächste hinterher: Apple sie diese Krümmung NICHT als Defekt an! und verweigert somit Ersatz als auch Nachbesserung über die Herkömmlichen Wege. Apple bezieht sich in Deutschland auf das 14 tägige Wiederrufsrecht zum Austauch der Geräte gegen ungebogene und bietet darüber hinaus den Austausch aktuell nur über das AppleCare+ Programm an, welches den Kunden für einen Expresstausch nochmal 49 Euro Kostet.

Apple scheint also nach den vielen Support Fiaskos dieses Jahr rund um iMac Pro und allgemeine Garantieabwicklung als auch das nachhaltigere Verblomben von Hardware mit Software ( Kein Fremdtausch von Hardware mehr möglich ), nun noch das Jahr mit der nächsten Bombe ausklingen lassen zu wollen. Kudos Apple, wie man sich in einem Jahr von einer super Firma hinrichten lässt zum „Bad Boy“

Jetzt wo HBM2 nichtmehr eingesetzt wird auf Consumer Karten gibt es hier wieder Neuigeiten: Offenbar ist nun bei Vollausbau HBM mit Pro Grafikchip 96 GB möglich, erreicht wird das durch Pro Stack 24GB Grafikspeicher.

Im Privatkunden Bereich unsinnig aber im Business Bereich, vor allem bei AI Lösungen und Rendering dürfte das den nötigen Push geben.

Allerdings ist GDDR6 was die Performance Betriff nah an HBM2 dran und ist zudem Kostengünstiger und Unkomplizierter zu verwenden, so wird sich mit der 3. Generation HBM entscheiden ob es weiter Daseinsberechtigung hat oder ob weiterhin der Einzigste Pluspunkt die eingesparte Fläche auf den Grafikkarten ist für die Speicherchips die dann direkt an den CPU Kern angehängt sind.