Der Hardware-Laberthread

Ihr wolltet ein Hardwareforum. Und wir so: "Neeee, braucht es nicht". Und ihr so: "Dooooooch". Und wir so: "Ach, komm!". Und ihr so: "Hier sind 12 Threads! Und jetzt?". Und wir so: "Ist ja gut..."
Forumsregeln
Datenschutzerklärung: https://www.gamespodcast.de/datenschutzerklaerung/
Impressum: https://www.gamespodcast.de/impressum/

Forenregeln und zukünftige Weltverfassung
ART 1: Behandle andere Nutzer mit Respekt.
ART 2: Do NOT piss off the Podcasters

Lies bitte weitere Hinweise hier: viewtopic.php?f=4&t=2789
Benutzeravatar
CybernetikFrozone
Beiträge: 394
Registriert: 3. Jun 2021, 18:11

Re: Der Hardware-Laberthread

Beitrag von CybernetikFrozone »

Okay danke.
Benutzeravatar
Lurtz
Beiträge: 2510
Registriert: 22. Feb 2016, 17:19

Re: Der Hardware-Laberthread

Beitrag von Lurtz »

CybernetikFrozone hat geschrieben: 6. Nov 2022, 19:12 Kann ich mit einer DLSS 3 Grafikkarte also RTX4000 auch DLSS 2 nutzen?
Ist nicht so sinnvoll da in Zahlen im Sinne von 3 ist besser als 2 zu denken, deshalb nennt nVidia DLSS2 jetzt auch DLSS Super Resolution, während DLSS3 Frame Generation genannt wird.
Mit einer RTX 4000 kann man beides nutzen (+ Reflex), mit einer RTX 2000/3000 immerhin noch Super Resolution (+ Reflex, leider scheint das zumindest in Spider-Man nur zu funktionieren, wenn man auch Frame Generation nutzt. Ich hoffe das ist nur ein Bug oder anderweitige sinnlose Einschränkung und nVidia wird Reflex in DLSS3-Spielen nicht den vorherigen RTX-Generationen vorenthalten, um Frame Generation besser aussehen zu lassen. Wäre natürlich nicht überraschend bei der Firma).
Komposti
Beiträge: 177
Registriert: 6. Feb 2021, 11:00

Re: Der Hardware-Laberthread

Beitrag von Komposti »

Ich konnte bisher DLSS3 nur in Spiderman ausprobieren und da hats mich nicht wirklich beeindruckt. Es sieht optisch ok aus, das ist ja schon mal was. Aber trotz erheblich höherer Framerate fühlt sich das Spiel nicht besser an. Nach meinem Empfinden sieht es noch nicht mal viel flüssiger aus aber das liegt vermutlich daran, dass ich es nur auf einem 120Hz TV gespielt habe.
Ich ertappe mich darüber hinaus dabei, wie ich in immer mehr Spielen mit der 4090 DLSS wieder ausschalte, weil es gefühlt immer mehr Titel gibt, die damit Probleme machen und die Karte mehr als genug Leistung für natives 4K hat.
Einzig Cyberpunk mit Raytracing ist immer noch ein Härtefall.
Zuletzt geändert von Komposti am 7. Nov 2022, 09:58, insgesamt 2-mal geändert.
Benutzeravatar
Lurtz
Beiträge: 2510
Registriert: 22. Feb 2016, 17:19

Re: Der Hardware-Laberthread

Beitrag von Lurtz »

Ja, sehe auch keinen so großen Anwendungsfall dafür. Dadurch, dass die Latenz sich nicht verbessert, bringt es einfach kaum was oder verschlechtert das Spielgefühl sogar.

Wenn der TV ein OLED war, ist das auch kein Wunder, die sind ja schon mit weniger FPS wesentlich flüssiger als LCDs.
Komposti
Beiträge: 177
Registriert: 6. Feb 2021, 11:00

Re: Der Hardware-Laberthread

Beitrag von Komposti »

Für Monitore mit extrem hoher Bildwiederhohlrate könnte es interessant sein. Oder auch bei sehr anspruchsvollen Titeln wie Cyberpunk, wodurch man es dann wirklich nutzen kann um die Framerate auf 100fps oder mehr aufzublähen. Der optische Gewinn durch die höhere Bewegtbildschärfe ist dann deutlich und die Latenz noch erträglich. Aber auf schwächeren 4000er Karten funktioniert das dann vielleicht schon nicht mehr.
So oder so ist der Nutzen aber viel begrenzter, als der von DLSS Super Resolution.
Benutzeravatar
Blaight
Lord Moderator of the Isles, First of his name
Beiträge: 1199
Registriert: 2. Jun 2016, 10:41

Re: Der Hardware-Laberthread

Beitrag von Blaight »

AM4 ist echt genial. Hatte mir mal vor Jahren n billiges AMD Bundle, mit 2600er, gekauft, als mobiles ITX System. Hab die Woche n gebrauchten 5600X drauf gesetzt und BOOM, deutlichste Leistungssteigerung. Ich brauche nur noch eine GPU und dann letttts go.
Benutzeravatar
Lurtz
Beiträge: 2510
Registriert: 22. Feb 2016, 17:19

Re: Der Hardware-Laberthread

Beitrag von Lurtz »

Microsoft hat jetzt das Update auf Windows 11 22H2 gestoppt, weil offenbar wie Geforce Experience jede ungepatchte Anwendung/Spiel mit aktivierem GPU-Debugging Leistungsprobleme hat:
https://www.computerbase.de/2022-11/mic ... 2022-22h2/
Carlos
Beiträge: 242
Registriert: 30. Okt 2021, 13:25

Re: Der Hardware-Laberthread

Beitrag von Carlos »

Dieser Artikel spricht mir echt aus dem Herzen:

https://www.computerbase.de/2022-11/kom ... -vernunft/
Klimawandel, Pandemie, Krieg und Wirtschaftskrise – all das sollte reichen, um sich auf das Wesentliche zu konzentrieren und sparsamer zu leben. In solchen Zeiten wird der Gaming-PC zum Luxusgut. Und wie reagiert die PC-Branche? Mit immer extremeren Features, mehr Zubehör und mehr LEDs zu deutlich gestiegenen Preisen.

Und auch ohne mehr RGB-LEDs oder Beigaben im Lieferumfang steigen die Preise weiter an. Nvidias Flaggschiff RTX 4090 kostet mittlerweile als FE knapp 2.000 Euro, nicht nur weil der Euro schwach steht, sondern weil auch der UVP in USD weiter gestiegen ist. Zugleich verbraucht die Grafikkarte zwar nicht so viel wie zuvor befürchtet, aber mit bis zu 450 Watt dennoch noch mehr als vor 10 Jahren ein ganzer Spiele-PC. Darunter oder bei der Konkurrenz läuft es auch nicht anders.
Ich war vor Jahren wirklich mal ein Hardware-Enthusiast. Was hat das Spaß gemacht damals meine Workstation zusammenzustellen und mir einen Ast abzulachen was ich an Performance im Vergleich zu den teuren Apple Workstations zu einem deutlich günstigeren Preis bekommen. Mittlerweile denke ich mir warum braucht eigentlich jeder Gamer ne Karte die mehr Leistung hat als professionelle Workstations für 3D Rendering und Editing. Und am Ende benötigt es dann trotzdem DSSL oder andere Skalierungsmethoden um mit ner Karte die mehr Leistung zieht als gesamte PC's auf 4k 60fps zu kommen mit Raytracing und Co.

Irgendwie komme ich nicht umhin Analogien zur deutschen Autoindustrie zu sehen. Während kleine sparsame Elektro-Vehikel die Zukunft sein sollten investiert man lieber in Luxus-SUVs die weder auf Straßen noch Parkplätzen passen. Und die Leute rechtfertigen sich dafür und kaufen die Dinger. Das selbe mit diesen Karten und CPU's (oder LED Mainboards wobei mir die noch relativ wurscht sind im Verhältnis :D )
Benutzeravatar
Dicker
Beiträge: 2270
Registriert: 20. Mai 2017, 20:29

Re: Der Hardware-Laberthread

Beitrag von Dicker »

Immerhin denkt Microsoft über das Thema nach und spielt mit Energiespar Grafikmodi rum.

https://www.windowscentral.com/gaming/x ... dows-games
Mauswanderer
Beiträge: 1275
Registriert: 10. Jan 2022, 18:36

Re: Der Hardware-Laberthread

Beitrag von Mauswanderer »

Gibt es eigentlich Untersuchungen, ob Cloudgaming (inkl. der Datenübertragung) effizienter oder ineffizienter ist? Ich kann mir vorstellen, so ein Datacenter könnte bei entsprechender Auslastung deutlich effizienter rechnen (vor allem, wenn man die Abwärme noch sinnvoll nutzt) und der Verbrauch auf Clientseite dürfte minimal sein (zumindest kommt es mir persönlich so vor, mein Handyakku hält ewig dabei, obwohl es auch noch den Controller antreibt). Ich weiß aber nicht so recht, wieviel der zusätzliche Traffic so an Energiekosten erzeugt.

Die Preisentwicklung bei Grafikkarten ist mir auch ein Dorn im Auge, da stimmt für mich einfach das gefühlte Preis-/Leistungsverhältnis nicht mehr. Ich hoffe, mit meiner aktuellen Hardware noch ein paar Jahre über die Runden zu kommen, vielleicht haben sich die GPU-Preise bis dahin etwas entspannt (z.B. durch bessere Intel-Konkurrenz) oder das allgemeine Lohn-/Preisniveau hat die Grafikkartenpreise eingeholt. :D
Benutzeravatar
Lurtz
Beiträge: 2510
Registriert: 22. Feb 2016, 17:19

Re: Der Hardware-Laberthread

Beitrag von Lurtz »

Bei bisherigen Untersuchungen kam Cloudgaming wenn ich mich richtig erinnere eher schlechter weg. Aber da spielen natürlich viele Faktoren rein. Allein ob der Abnehmer FTTH oder FTTC hat, macht zB einen Unterschied beim Stromverbrauch um mehrere Faktoren.

Ansonsten sind aber sicher auch die Rahmenbedingungen entscheidend. Streaming mit den üblichen 1080p 60 Fps benötigt sicher nicht so viel, aber das ist auch am PC mittlerweile relativ effizient möglich. Die meisten wollen aber 1440p 144 fps oder sogar mehr...

Ist wie bei TVs, schön wenn die immer effizienter werden, bringt nur nichts wenn man gleichzeitig die Größe verdreifacht und die Auflösung vervielfacht, absolut fressen sie dann eben doch wieder mehr Strom.

Wenn man bedenkt was dagegen ein Steam Deck in 15 Watt leistet, und damit kann man grundsätzlich auch fast alles spielen...
Benutzeravatar
CybernetikFrozone
Beiträge: 394
Registriert: 3. Jun 2021, 18:11

Re: Der Hardware-Laberthread

Beitrag von CybernetikFrozone »

Lurtz hat geschrieben: 15. Nov 2022, 07:56 Bei bisherigen Untersuchungen kam Cloudgaming wenn ich mich richtig erinnere eher schlechter weg. Aber da spielen natürlich viele Faktoren rein. Allein ob der Abnehmer FTTH oder FTTC hat, macht zB einen Unterschied beim Stromverbrauch um mehrere Faktoren.

Ansonsten sind aber sicher auch die Rahmenbedingungen entscheidend. Streaming mit den üblichen 1080p 60 Fps benötigt sicher nicht so viel, aber das ist auch am PC mittlerweile relativ effizient möglich. Die meisten wollen aber 1440p 144 fps oder sogar mehr...

Ist wie bei TVs, schön wenn die immer effizienter werden, bringt nur nichts wenn man gleichzeitig die Größe verdreifacht und die Auflösung vervielfacht, absolut fressen sie dann eben doch wieder mehr Strom.

Wenn man bedenkt was dagegen ein Steam Deck in 15 Watt leistet, und damit kann man grundsätzlich auch fast alles spielen...
das Argument von Cloudgaming ist ja auch,du brauchst keine große Hardware mehr daheim,das Erledigen alles wir für dich und es wird aktuell nur mit 4K und 120FPS geworben. Theoretisch müsste das auch so funktionieren,aber nur theoretisch.

Was mich auch wundert,warum muss ich extra zahlen für eine RTX 3080 in der Cloud,warum sind nicht alle Clouds von sich aus,auf Höchstleistung,ich dachte auch da wäre Spezial-Hardware drinnen,die da die nächsten 15Jahre bleibt,ähnlich wie wenn Microsoft seine Server aufsetzt,aber gut.
Benutzeravatar
Lurtz
Beiträge: 2510
Registriert: 22. Feb 2016, 17:19

Re: Der Hardware-Laberthread

Beitrag von Lurtz »

Auch Microsoft tauscht seine Server ganz sicher wesentlich öfter. Ich glaube nicht, dass der Hardwareverbrauch in Rechenzentren niedriger ist als vor Ort.
Für Machine Learning gibt's schon spezielle Grafikkarten, für Spiele meines Wissens nicht. Und egal wie leistungsfähig, so lange könnte man sie eh nicht nutzen weil sich die APIs und Funktionen weiter entwickeln. Selbst wenn man das in Software nachbauen könnte wäre es selbst für damalige Highend Hardware viel zu langsam.
Benutzeravatar
XfrogX
Beiträge: 709
Registriert: 21. Jan 2017, 20:19
Kontaktdaten:

Re: Der Hardware-Laberthread

Beitrag von XfrogX »

Die verbrauchen nur dann weniger wenn sie nicht für alle die wollen, jedes Spiel gleich am Start haben.
Aber genau das wird erwartet, also muss man zig Server immer am laufen haben damit diese zu jeder Zeit für jeden das gewollte Spiel ohne Ladezeiten … anbieten.

Und viele die cloud nutzen, hätten daheim keinen oder eher nen sparsamen Rechner/Konsole. Also ich würde tippen die verbrauchen so eher viel mehr.

Sicher auch ein Grund warum Google mit stadia extra Versionen von spielen hatte, halt auf einem linux … das war sicher auch ein Ziel, nötigen Ballast und auch Nutzer spitzen abzufangen, einfach weil man so die möglichen Spiele begrenzt hatte.
Benutzeravatar
Lurtz
Beiträge: 2510
Registriert: 22. Feb 2016, 17:19

Re: Der Hardware-Laberthread

Beitrag von Lurtz »

Die meisten Spiele Clouds sind doch bisher Instanzen wo man selbst das Spiel installiert und startet. Bei nVidia zB loggt man sich in seinen Steam Account ein und installiert das Spiel erstmal auf der Instanz. Da wird nichts vorgehalten.
Benutzeravatar
XfrogX
Beiträge: 709
Registriert: 21. Jan 2017, 20:19
Kontaktdaten:

Re: Der Hardware-Laberthread

Beitrag von XfrogX »

Die meisten? Bei Xbox hast du alle spiele gleich zum streamen. Und bei PlayStation genauso. Und genau das ist doch was die Maße will. Netflix für spiele, kein warten, kein extra kaufen. Drauf klicken und loslegen. Und das immer und unbegrenzt.
Ich würde sogar tippen das gerade längere spiele schnell das vielfache an Daten senden müssen als wenn man nur das Spiel runterläd. Ein 40 Stunden Spiel in 4K 60fps hat sichere das vielfache an Daten zu streamen von einem Download. Und was bei Release schon los ist wenn der Download mal langsam ist oder Server belegt kennen wir ja. Also müssen diese Server nun viel größer werden und vorallem viel länger so laufen und dabei viel mehr Strom verbrauchen. Auch auf dem Server läuft das Spiel ja nicht plötzlich mit 40w statt 600w
Carlos
Beiträge: 242
Registriert: 30. Okt 2021, 13:25

Re: Der Hardware-Laberthread

Beitrag von Carlos »

XfrogX hat geschrieben: 15. Nov 2022, 12:12 ...
Und viele die cloud nutzen, hätten daheim keinen oder eher nen sparsamen Rechner/Konsole. Also ich würde tippen die verbrauchen so eher viel mehr.
Hmm weiß nicht so recht ob das zutrifft. Ich glaube um wieder den Auto Vergleich aufzumachen dass das fast ne Sache des Komforts ist. Als die Hitzewelle dieses Jahr wieder zuschlug (und das war soweit ich weiß sogar schon im Frühling) fand ich es mega geil mit meinem Macbook und Geforce Now Cyberpunk weiterspielen zu können weil:
  • keine große Hitzeentwicklung, der Macbook lag mit passiver Kühlung auf meinem Schoss (wer ältere Modelle kennt weiß wie heiß die Dinger schon bei so Kleinigkeiten werden können wie Youtube Videos gucken ;)
  • Keine Erhöhung der Raumtemperatur (je nach privater Wohnsituation ist nen Gaming Rechner im Sommer abseits von nächtlichen Aktionen fast nicht aushaltbar)
  • Preisfaktor: knapp nen Hunni für 6 Monate mit RTX 3080 Leistung zocken vs Grafikartenmarkt noch voll in der Preisspirale
  • Energieersparnis (war auch schon vor Monaten ein Thema, man zahlt halt quasi die TDP für nen Rechner im Idle Mode bzw gerade mal Media Streaming Mode + die oben genannten Streaming Gebühren, that's it
  • Flexibilität: zocken auf der Couch, kein Thema, zocken mit nem Beamer im Partykeller (frag nicht ;) kein Thema, vorbei die Zeiten von statischen Zockstationen oder überteuerten Gaming Notebooks die dann eh preislich schlecht altern
Leider haben dann die klassischen Nachteile am Ende in Richtung Herbst überwogen, sprich übertrieben schlechter Spielekatalog, das ständige Suchen müssen nach kompatiblen Games die man dann auch noch per Steam&Co erwerben muss anstatt die Games zocken zu können auf die man akut Lust hat oder die gerade im Sale sind.

Eigentlich wäre es erfreulich das Thema Cloudgaming unter dem Punkt Nachhaltigkeit noch mal auszurollen, aber wenn ich in unsere Gaming Bubbleso schaue will dann doch jeder den eigenen SUV in seiner Einfahrt mit Carport parken :ugly: Und die Hardware-Hersteller reiben sich die Hände.
Benutzeravatar
XfrogX
Beiträge: 709
Registriert: 21. Jan 2017, 20:19
Kontaktdaten:

Re: Der Hardware-Laberthread

Beitrag von XfrogX »

Naja für dich Energie Ersparnis. Aber ich wette um das Spiel in dieser Qualität darzustellen hat der Server mehr Strom gefressen als deine Geräte es daheim bei deiner maximalen Einstellung. Plus Optimierung für stream und Latenz. Dann Server und Router die dauerhaft voll laufen.
Ich glaube nicht da man da am Ende noch von einer positiven Bilanz ausgehen kann.
Komposti
Beiträge: 177
Registriert: 6. Feb 2021, 11:00

Re: Der Hardware-Laberthread

Beitrag von Komposti »

Prinzipiell gibts es bei Serverfarmen natürlich ernormes Einsparpotential sowohl was Materialkosten, als auch Energieeffizienz angeht. Serverhardware läuft in der Regel deutlich näher am energetischen Sweetspot als es der Heimrechner tut. Darüberhinaus gibt es schon seit einigen Jahren die Möglichkeit, die abgeführte Energie durch die Serverkomponenten in eine Wärmenetz einzuspeisen, was die Energiebilanz erheblich verbessert.
Im Vergleich zu ner Konsole aber dürfte normale Serverhardware wieder schlechter dastehen. Dazu verwendet zumindest Microsoft die gleiche Hardware für ihren Streamingdienst, der auch in Series S/X verbaut wird, vermutlich nur in nem anderen Formfaktor der halt in Serverracks passt.
Konsolen gehen schon recht Effizient mit der Leistung um, zumindest im normalen Spielebetrieb. Ob man die Spiele nun in der Cloud oder an der eigenen Konsole zockt, dürfte in der Ökobilanz kaum einen Unterschied machen.
Benutzeravatar
XfrogX
Beiträge: 709
Registriert: 21. Jan 2017, 20:19
Kontaktdaten:

Re: Der Hardware-Laberthread

Beitrag von XfrogX »

Naja, wenn die gleiche Hardware genutzt wird, hast du immer noch den ganzen Strom Verbrauch vom Daten Transfer und der Hardware die es daheim wieder zum Bild macht. Selbst wenn es der Fernseher selbst übernimmt braucht auch der dafür etwas Rechenleistung.
Und soweit ich weiß werden doch die Daten optimiert um latenzen zu senken … das dürfte also beim Server auch nochmal Leistung kosten.
Und dann müssen diese Server ja eine ganze Menge an Konsolen bereit stellen, damit halt zu jeder Zeit alle die wollen in ein Spiel einsteigen können. Zumindest bei meinen kurzen gamepass Zeiten ging jeder Spielwechsel direkt. Klar kann man sicher mit Prognosen arbeiten, aber trotzdem dürften da mehr Konsolen im idle laufen, also kein standby schon das wäre ja ne Verzögerung, als wenn jeder Spieler sich eine holt und nur anschaltet wenn er spielen will.

Dann wird ja jeder ne x an Leistung wollen, während die Leute sonst vielleicht nur ne s oder gar noch weniger daheim sonst hätten, weil es ihnen reicht.
Auch dort also eher mehr Verbrauch als sparen.

Yakuza hab ich wohl locker das doppelte bis 3 fache der Datenmenge verbraucht als wenn ichs runter geladen hätte. Und ich hab nicht mal die Hälfte vom Spiel erreicht.

Cloud Gaming ist sicher bequem, einfach und schnell. Aber nicht energiesparend. Sowas ist sicher toll wenn wir soviel erneuerbare Energien haben das wir sie nicht mehr verbraucht bekommen, aber das ist ein weiter weg, zumal zum heutigen Verbrauch dann noch Verkehr, heizen und Wasserstoff Produktion dazu kommt. Bis dahin sollte man eigentlich eher versuchen Verbräuche nur zu senken und keine Angebote machen die Leute verlocken woanders mehr Strom zu verbrauchen.
Antworten