Seite 2 von 3 « Erste 123 Letzte »
Ergebnis 21 bis 40 von 53

RTX 3080 - Wer hat schon eine?

  1. #21 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Zitat Zitat von Nobbi Habogs Beitrag anzeigen
    Dein Problem ist halt der VRAM, eigentlich ist die 970 sicher noch tragbar, wenn sie einfach mal 8 GB VRAM hätte. Aber in WQHD bist du mit 4GB komplett im Eimer. 6GB wär schon ein riesiger Unterschied und 8GB ein Muss beim Neukauf. Ich würde an deiner Stelle einfach warten und in 1080p zocken. Wie gesagt, eigentlich kann die locker mithalten noch, aber eben nicht mit 4GB für WQHD. Und das ist halt auch genau das Problem über das man sich klar sein muss, wenn man sich einen Monitor mit WQHD holt: Man muss auch immer Grafikkarten haben die relativ viel VRAM haben und mindestens 20% schneller sind als die Modelle die einem für 1080p reichen würden. Statt einer 1060 brauchts eine 1070. Statt einer RX 5600XT brauch man einer RX 5700XT usw.

    Da war halt leider schon der Fehler überhaupt eine 970 mit dem Monitor zu paaren, aber das weißt du jetz sicher auch
    Naja, mir in diesem Fall Ignoranz zu unterstellen ist schon ein bisschen überheblich, vor allem wenn du meine Ansprüche nicht kennst. Bin jetzt auch kein absoluter Laie was Hardware angeht. Genau genommen hat die 970 ja nicht mal volle 4GB weil Nvidia bei der Speicherzuweisung irgendwie Mist gebaut hat, das heißt die Karte kann nur 3,5GB mit voller Leistung nutzen und die Performance bricht ein sobald diese Speichermenge überschritten wird, um auch mal etwas klugzuscheißen.

    Den 1440p Monitor habe ich mir nicht hauptsächlich geholt, um im Verbund mit der 970 neuste Titel damit zu spielen. Das wäre ein unrealistischer Anspruch. Mein Backlog an Sachen, die ich noch spielen möchte ist riesig und in den letzten Jahren kam wenig neues raus, das mich interessiert. Aber die neueren Sachen, die mich interessieren will ich vielleicht garnicht mehr in 1080p spielen, was die 970 vielleicht noch gerade so packen würde (wird unter Vollast auch ziemlich laut). Daher ist es dann auch egal, ob ich den PC mit einem 1080p oder 1440p Monitor weiternutze. Aber allein für die tägliche Desktopnutzung hat es sich allemal gelohnt. 144 Hz und die höhere Pixeldichte (bei 125% Skalierung) sind einfach viel angenehmer für die Augen. Eigentlich habe ich den Monitor mir in weiser Voraussicht geholt, um später mit einem besseren PC darauf zocken zu können. Und ich bereue den Kauf nicht. Gibt genug ältere Sachen, die ich auch jetzt in nativer Auslösung mit diesem Setup spielen kann. Bin nicht der Typ der immer das neuste vom neuen zocken muss.

    Die neue GraKa wollte ich mir jetzt mal gönnen, um neue Sachen bei nativer Monitorauflösung zocken zu können und gleichzeitig für die Zukunft abgesichert zu sein. Wie lange ich mit den 10GB auskomme wird sich dann zeigen. Die 1000er und 2000er Karten hatte ich damals bewusst ignoriert, weil der Leistungssprung für mich nicht ausreichend war, um ein Upgrade zu rechtfertigen. Die 3000er-Serie hat jedoch einen so großen Leistungsprung gemacht, das mir ein Upgrade nun sinnvoll erscheint.
    Jazz Jackrabbit ist offline Geändert von Jazz Jackrabbit (24.10.2020 um 01:59 Uhr)

  2. #22 Zitieren
    Ehrengarde
    Registriert seit
    May 2010
    Ort
    Nrw
    Beiträge
    2.487
    Zitat Zitat von Nobbi Habogs Beitrag anzeigen
    ...
    Das Problem ist nicht der VRAM sondern die 970 an sich, den diese ist bei weitem nicht mehr Tragbar in 2020 mit 1080p.

    Kannst du noch so viel VRAM zu ballern wie du willst, die Karte ist schlicht zu langsam, sieht man auch an Benchmarks.
    Zankro ist offline

  3. #23 Zitieren
    Halbgott Avatar von Progrinator
    Registriert seit
    Apr 2018
    Ort
    München
    Beiträge
    9.174
    Zitat Zitat von Zankro Beitrag anzeigen
    Das Problem ist nicht der VRAM sondern die 970 an sich, den diese ist bei weitem nicht mehr Tragbar in 2020 mit 1080p.

    Kannst du noch so viel VRAM zu ballern wie du willst, die Karte ist schlicht zu langsam, sieht man auch an Benchmarks.
    ich komme mit meiner 960 noch gut zurecht. Ist immer eine frage was für Detail Einstellungen und was für FPS werte man haben möchte.
    Progrinator ist offline

  4. #24 Zitieren
    Ehrengarde
    Registriert seit
    May 2010
    Ort
    Nrw
    Beiträge
    2.487
    Zitat Zitat von Progrinator Beitrag anzeigen
    ich komme mit meiner 960 noch gut zurecht. Ist immer eine frage was für Detail Einstellungen und was für FPS werte man haben möchte.
    Und was soll mir das nun sagen, außer das du keine Ansprüche hast ?

    Nimm es mir nicht quer, aber mit einer 960 spielst du kaum neuere Spiele wie RDR2 oder Doom, und wenn doch dann eher auf Low mit 1080, der TE hingegen hat ein 1440p144 Monitor und es sollte klar sein welche FPS er anpeilt.


    Einfach nichts aussagend dein Post, ich kann selbst mit einer 770 noch zurechtkommen, wenn es mich nicht stört neuere Spiele auf 720p und Low spielen zu wollen, das ist hier aber nicht der Punkt.
    Der Punkt ist das die 970 nicht für 1080p und 1440p auf hohe FPS Zahlen tragbar mehr ist, auch nicht mit mehr VRAM.
    Zankro ist offline

  5. #25 Zitieren
    So weit die Füße tragen.. Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    12.333
    Weil man eine 960 hat, ist man anspruchslos? Glaube ich kaum.
    Ich habe mit einer 7950 AC: Odyssey oder Ghost Recon Wildlands gespielt und die 3GB VRAM waren das Problem.
    Momentan spiele ich mit einer RX580 und die reicht mir eigentlich.

    Die RTX 3080 ist eine Spielerei für Leute, die zu viel Geld haben. Ähnlich wie ein Porsche oder Audi.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Hünentochter
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  6. #26 Zitieren
    Halbgott Avatar von Progrinator
    Registriert seit
    Apr 2018
    Ort
    München
    Beiträge
    9.174
    Zitat Zitat von Almalexia Beitrag anzeigen
    Weil man eine 960 hat, ist man anspruchslos? Glaube ich kaum.
    Ich habe mit einer 7950 AC: Odyssey oder Ghost Recon Wildlands gespielt und die 3GB VRAM waren das Problem.
    Momentan spiele ich mit einer RX580 und die reicht mir eigentlich.

    Die RTX 3080 ist eine Spielerei für Leute, die zu viel Geld haben. Ähnlich wie ein Porsche oder Audi.
    wobei man auch seine Vorzüge aus den dingen ziehen kann. Bei weiten strecken würde ich gerne Konform, Sicherheit und schnell von a nach b in einem auto vereint haben wollen.

    Genau die gleiche Sache mit einer 3080. Mankann auch mit einer 3070 oder so glücklich sein, will man aber eine bestimmte auflösung und eine bestimmte bild wiederholungsrate, kommt man an der karte nicht vorbei.

    Zudem muss man nicht reich sein, um sich eine 3080 zu holen. gegf. kann es auch eine Frage der Priorität sein.


    Zitat Zitat von Zankro Beitrag anzeigen
    Und was soll mir das nun sagen, außer das du keine Ansprüche hast ?

    Nimm es mir nicht quer, aber mit einer 960 spielst du kaum neuere Spiele wie RDR2 oder Doom, und wenn doch dann eher auf Low mit 1080, der TE hingegen hat ein 1440p144 Monitor und es sollte klar sein welche FPS er anpeilt.


    Einfach nichts aussagend dein Post, ich kann selbst mit einer 770 noch zurechtkommen, wenn es mich nicht stört neuere Spiele auf 720p und Low spielen zu wollen, das ist hier aber nicht der Punkt.
    Der Punkt ist das die 970 nicht für 1080p und 1440p auf hohe FPS Zahlen tragbar mehr ist, auch nicht mit mehr VRAM.
    hat es sicherlich nicht. Außerdem braucht man für spielspaß nicht immer hohe fps. Zocke ich entsprechende multiplayertitel, wäre das sicherlich vor höherer Relevanz.
    Gut aussehende Spiele bei FullHD kriege ich mit meiner 960 immer noch weg. leider war Kingdome Come Deliverance das letzte anspruchsvolle game was ich gezockt habe, und meine 960 hat es gepackt.

    Ich selber will einfach nicht zu oft mir was neues kaufen und hole mir erst was neues, wenn meine Karte es nicht mehr richtig hinbekommt.
    Progrinator ist offline Geändert von Progrinator (26.10.2020 um 16:32 Uhr)

  7. #27 Zitieren
    So weit die Füße tragen.. Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    12.333
    Eine RTX 3090 kostet so um die 1700 - 1800€. Das ist keine Frage der Prioritäten mehr. Das ist einfach nur mehr...
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Hünentochter
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  8. #28 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.589
    Zitat Zitat von Progrinator Beitrag anzeigen
    Genau die gleiche Sache mit einer 3080. Mankann auch mit einer 3070 oder so glücklich sein, will man aber eine bestimmte auflösung und eine bestimmte bild wiederholungsrate, kommt man an der karte nicht vorbei.
    Die Bildwiederholungsrate wird vom Monitor bestimmt, nicht von der GraKa. Man kann auch an einer IGP einen 144 Hz oder 240 Hz Monitor betreiben, und auch dort würde man davon profitieren.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  9. #29 Zitieren
    So weit die Füße tragen.. Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    12.333
    Um Windows in 4K zu betreiben, braucht man keine 3080. Nur eine Grafikkarte die diese Auflösung unterstützt und einen Monitor. Ob man dann mit einer RX580 spielen kann ist eine andere Frage.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Hünentochter
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  10. #30 Zitieren
    Halbgott Avatar von Progrinator
    Registriert seit
    Apr 2018
    Ort
    München
    Beiträge
    9.174
    Zitat Zitat von Homerclon Beitrag anzeigen
    Die Bildwiederholungsrate wird vom Monitor bestimmt, nicht von der GraKa. Man kann auch an einer IGP einen 144 Hz oder 240 Hz Monitor betreiben, und auch dort würde man davon profitieren.
    Jape aber nicht entsprechendes Bildmaterial produzieren, dass erstellt wird und am ende ausgeben wird.

    Zitat Zitat von Almalexia Beitrag anzeigen
    Eine RTX 3090 kostet so um die 1700 - 1800€. Das ist keine Frage der Prioritäten mehr. Das ist einfach nur mehr...
    Wenn man das geld hat, weil man es nicht für andere Dinge ausgibt, ist es völlig legitim sich eine 3090 zu holen.

    Zitat Zitat von Almalexia Beitrag anzeigen
    Um Windows in 4K zu betreiben, braucht man keine 3080. Nur eine Grafikkarte die diese Auflösung unterstützt und einen Monitor. Ob man dann mit einer RX580 spielen kann ist eine andere Frage.
    jape aber Spiele mit einen bestimmten Bewegt Bild in einer gewissen Deteilgrad darzustellen, schon.

    Ansonsten reicht auch die intrigierte Grafikkarte aus oder eine 12 Jahre altes Modell.
    Progrinator ist offline

  11. #31 Zitieren
    So weit die Füße tragen.. Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    12.333
    Eine Spielerei für Leute, die zu viel Geld haben. Für einen 4K Monitor und 144hz braucht man keine 3090. Außer man spielt. Dann ist das aber ein Hobby.
    Ich habe nie gesagt, das man sich so eine Grafikkarte nicht kaufen darf.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Hünentochter
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  12. #32 Zitieren
    Halbgott Avatar von Progrinator
    Registriert seit
    Apr 2018
    Ort
    München
    Beiträge
    9.174
    Zitat Zitat von Almalexia Beitrag anzeigen
    Eine Spielerei für Leute, die zu viel Geld haben. Für einen 4K Monitor und 144hz braucht man keine 3090. Außer man spielt. Dann ist das aber ein Hobby.
    Ich habe nie gesagt, das man sich so eine Grafikkarte nicht kaufen darf.
    ja und für ein hobby darf man gerne viel geld ausgeben. Wo für gibst du denn dein geld aus. Andere sagen sicherlich auch, für dies das Geld auszugeben, sei verschwenderisch oder sonstiges.

    Außerdem ja schaffst du auch sicherlich mit einer 1060 irgendwie.

    Aber will man das? Wenn man das ein besseres ergebnis als das, was eine 3080 leisten kann, holt man sich eine 3090. Daran ist meiner Meinung nach nicht verschwenderisch.

    Ich habe auch nie gesagt, dass du gesagt hast, dass man dies nicht darf.
    Progrinator ist offline

  13. #33 Zitieren
    So weit die Füße tragen.. Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    12.333
    Darum geht es nicht. Es kann jeder sein Geld für das ausgeben was er möchte. Das ändert aber nichts daran, das ich das für eine Spielerei halte. Genauso wenig wie man einen teuren Sportwagen braucht. Ich gehöre nicht zu den Leute, die sich jedes Jahr neue Hardware kaufen, weil ihnen die alte zu langsam ist. Teurer Sportwagen ist ja auch nur eine Protzerei.
    Ich bin mit meiner RX580 zufrieden und kann Anno 1800 und Odyssey problemlos spielen. Ich zahle keine 2000€ für eine Grafikkarte. Das ist alles und 2000€ kann man ruhig für überteuert halten.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Hünentochter
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  14. #34 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.589
    Wenn es nur das gäbe was man braucht, gäbe es u.a. Videospiele überhaupt nicht. Viele Grafikkarten würde es dann auch gar nicht geben, da einige GPUs speziell für Videospiele entwickelt wurden.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  15. #35 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Zitat Zitat von Almalexia Beitrag anzeigen
    Eine Spielerei für Leute, die zu viel Geld haben. Für einen 4K Monitor und 144hz braucht man keine 3090. Außer man spielt. Dann ist das aber ein Hobby.
    Ich habe nie gesagt, das man sich so eine Grafikkarte nicht kaufen darf.
    Die 3090 ist nur für Leute denen Preisleistung und Energieeffizienz absolut egal ist, oder aus irgendwelchen Gründen 24GB VRAM brauchen (z.B. 3D Modelle rendern, Videobearbeitung). Meiner Meinung nach zum zocken nicht lohnenswert bei dem geringen Leistungsgewinn gegenüber der 3080. Und mal ganz ehrlich, ist ja schön dass es theoretisch möglich ist, aber wirklich niemand zockt in 8k. Mir kann keiner erzählen dass man das braucht. Ich seh schon bei 1440p kaum noch Pixel wenn ich davorsitze. Ab 4k wird's schwachsinnig die Leistung in noch mehr Pixel statt in eine flüssigere Bildwiederholrate zu stecken.
    Jazz Jackrabbit ist offline

  16. #36 Zitieren
    Mythos
    Registriert seit
    May 2014
    Beiträge
    8.429
    Zitat Zitat von horstVyacheslav420 Beitrag anzeigen
    Ich seh schon bei 1440p kaum noch Pixel wenn ich davorsitze. Ab 4k wird's schwachsinnig die Leistung in noch mehr Pixel statt in eine flüssigere Bildwiederholrate zu stecken.
    Für VR will man zumindest 2x4k erreichen. Dann gibt es noch die Möglichkeit 3x4k zu nem Megawidescreen zusammenzuschließen. Es gibt durchaus legitime Gründe mehr Power für mehr Pixel zu wollen. Bei stink normalem 8k-Gaming stimme ich dir aber zu. Der Unterschied ist nur noch wahrnehmbar, wenn man wenige cm vor dem Bildschirm klebt. Aber wenn wir mal an Smartphones denken: höhere Auflösungen als 720p sind dort ebenfalls schwachsinnig und dennoch gibt es dort deutlich noch Höhere.

    Auf der anderen Seite, was will man mit 144Hz? Dann lieber höhere Reichweiten von Objekten und NPCs, damit man sie nicht mehr aufblobben sieht. (Keine ernst gemeinte Frage.)
    Wer mit Sonderzeichen gendert, diskriminiert jene, die sich nicht zu Mann oder Frau zuordnen lassen. Geschlechtergerechtigkeit in der Sprache erreicht man nur mit gender-neutralen Begriffen. Wer das weiß und dennoch gendert, diskriminiert mit Vorsatz!
    Xarthor ist offline

  17. #37 Zitieren
    Pretty Pink Pony Princess  Avatar von Multithread
    Registriert seit
    Jun 2010
    Ort
    Crystal Empire
    Beiträge
    11.231
    Zitat Zitat von Xarthor Beitrag anzeigen
    Dann gibt es noch die Möglichkeit 3x4k zu nem Megawidescreen zusammenzuschließen.
    Auf der anderen Seite, was will man mit 144Hz?
    Wieso auf der anderen Seite?
    Es gibt erstaundlich viele, welche 1440p@144Hz Als Monitorsetup haben, und einige wenige, welche diese in einer Dreimonitor Konfiguration nutzen.

    Dafür ist aber selbst ne 3090/Whatever zu langsam. Aber da SLI Tod ist, und man nicht weiss wie es bei AMD Aussieht, müssen wir da die Anforderungen irgendwo runterschrauben.
    Das ist ein Problem, wo man mit "Mehr Geld dagegen werfen" auch nicht mehr weiter kommt.
    [Bild: AMD_Threadripper.png] Bei Hardware gibt es keine eigene Meinung, bei Hardware zählen nur die Fakten.


    Probleme mit der Haarpracht? Starres Haar ohne Glanz? TressFX schafft Abhilfe. Ja, TressFX verhilft auch Ihnen zu schönem und Geschmeidigen Haar.
    [Bild: i6tfHoa3ooSEraFH63.png]
    Multithread ist gerade online

  18. #38 Zitieren
    Mythos
    Registriert seit
    May 2014
    Beiträge
    8.429
    Zitat Zitat von Multithread Beitrag anzeigen
    Es gibt erstaundlich viele, welche 1440p@144Hz Als Monitorsetup haben [...]
    Deswegen schrieb ich "keine ernst gemeinte Frage".

    Ich wollte dabei aber indirekt drauf aufmerksam machen, dass es nicht nur Auflösung vs Hz ist, sondern auch vs Spielinhalt wie Shaderkomplexität, Reichweiten etc. Die Grafikkarten sind auch ohne 144Hz oder 4k Auflösung nach wie vor der limitierende Faktor in Spielen. Das hat sich in den letzten 20 Jahren nicht geändert.
    Wer mit Sonderzeichen gendert, diskriminiert jene, die sich nicht zu Mann oder Frau zuordnen lassen. Geschlechtergerechtigkeit in der Sprache erreicht man nur mit gender-neutralen Begriffen. Wer das weiß und dennoch gendert, diskriminiert mit Vorsatz!
    Xarthor ist offline

  19. #39 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Zitat Zitat von Xarthor Beitrag anzeigen
    Für VR will man zumindest 2x4k erreichen. Dann gibt es noch die Möglichkeit 3x4k zu nem Megawidescreen zusammenzuschließen. Es gibt durchaus legitime Gründe mehr Power für mehr Pixel zu wollen. Bei stink normalem 8k-Gaming stimme ich dir aber zu. Der Unterschied ist nur noch wahrnehmbar, wenn man wenige cm vor dem Bildschirm klebt. Aber wenn wir mal an Smartphones denken: höhere Auflösungen als 720p sind dort ebenfalls schwachsinnig und dennoch gibt es dort deutlich noch Höhere.

    Auf der anderen Seite, was will man mit 144Hz? Dann lieber höhere Reichweiten von Objekten und NPCs, damit man sie nicht mehr aufblobben sieht. (Keine ernst gemeinte Frage.)
    VR ist natürlich was anderes! Da machen mehr physische Pixel durchaus Sinn, selbst wenn nicht in nativer Auflösung gerendert wird um den Screen-Door-Effect zu minimieren aber es ging mir um eher normale Bildschirme.

    144 Hz sind wie gesagt einfach angenehmer und sorgen für natürlichere Bewegungsabläufe. Wenn du dich einmal an 144 Hz gewöhnt hast und zurück zu 60 Hz gehst, wirst du dich wundern wie ruckelig das auf einmal aussieht.

    Am besten sieht man das meiner Meinung nach wenn man den Mauszeiger schnell über denn Bildschirm bewegt und die Spur betrachtet. Je höher die Bildwiederholrate, desto weniger Sprünge macht der Mauszeiger und desto weniger Spuren zieht er. Und ich denke 144 Hz ist noch lange nicht das Ende der Fahnenstange, es gibt ja schon 1080p Displays mit 240 Hz oder mehr. Was die Auflösung betrifft haben mit 2160p den Punkt erreicht, an dem wir bei normaler Distanz und einer durchschnittlichen Monitorgröße (23-27") eigentlich keine zusätzlichen Details mehr wahrnehmen. Das einzige was 8k bringen würde, mal angenommen der Monitor hat 27", ist dass du mehr Details in der Entfernung erkennst, wenn du wirklich ganz nah an den Bildschirm herangehst. Wenn man die Details schon mit der Lupe suchen muss, fängt der Vorteil der höheren Auflösung an redundant zu werden. Den Unterschied zwischen 60 und 144Hz sieht man allerdings immer, ganz unabhängig von der Entfernung.
    Jazz Jackrabbit ist offline

  20. #40 Zitieren
    Mythos
    Registriert seit
    May 2014
    Beiträge
    8.429
    Das mit der Maus ist kein Argument für bessere Bildwiederholungsraten. Die "Sprünge" entstehen bei der Maus selbst durch deine Handbewegung. Schlechte Mäuse verstärken das Problem teils enorm. Was viele Entwickler leider nicht machen, ist eine Mausglättung, welche die Mausgeschwindigkeit abrundet, damit bekommt man auch bei 60 FpS ein geschmeidigen Bildverlauf hin. 144Hz macht die Sprünge halt etwas weniger als halb so groß, weil die Spiellogik in etwas mehr als doppelter Geschwindigkeit abläuft. Die Sprünge bekommt man aber wie gesagt nur dadurch mit, dass der Mausbewegungswert zu große Spitzen haben.

    Übrigens halte ich 27" mit 2160p für Pixelverschwendung. 1440p ist optimal für die Größe. 4k bei 32" ist nämlich schon grenzwertig (paar Pixel mehr und man muss näher an den Bildschirm um ohne Zoom alles lesen zu können).

    Der Knackpunkt ist aber eigentlich der: Viele Details in der Entfernung können bereits ohne mehr Auflösung gut dargestellt werden - werden aber nicht abgebildet um Grafikresourcen zu sparen um 144Hz oder 4k Auflösung zu realisieren. Also 8k mit heutigen Grafikstandards und Grafikkarten würde sogar das Gegenteil bewirken: Objekte und Shader etc können nicht mehr auf so hoher Entfernung abgebildet werden.
    Wer mit Sonderzeichen gendert, diskriminiert jene, die sich nicht zu Mann oder Frau zuordnen lassen. Geschlechtergerechtigkeit in der Sprache erreicht man nur mit gender-neutralen Begriffen. Wer das weiß und dennoch gendert, diskriminiert mit Vorsatz!
    Xarthor ist offline Geändert von Xarthor (27.10.2020 um 22:07 Uhr)

Seite 2 von 3 « Erste 123 Letzte »

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •