|
-
19.12.2014 11:15
#41
Zitat von jim360
Ich habe Unity mit 18FPS-22FPS gespielt und fand es nicht als problematisch. Filme liefen doch auch immer mit 24FPS
Es gibt halt leute die auf 120FPS schwören und 60FPS als zu Niedrig empfinden
Ich habe Unity auf knapp 25-30 FPS gespielt (PS4), nach dem Patch bleibt die Rate aber definitiv stabiler bei 30 FPS und sinkt nicht mehr auf u25 ab.
Das sind aber Probleme, die durch das Spiel selbst auftreten - Wer News zu ACU verfolgt, dürfte das aber wissen. PC-Spiele kommen mittlerweile alle mit 60+ FPS auf den Markt bzw. gibt es die Möglichkeit, die FPS zu erhöhen. Konsolentitel sind fast alle an 30 FPS gebunden, mit Ausnahme von einigen Titeln, die grafisch nicht ganz so anspruchsvoll sind.
-
Zitat von Defc
Ich gehe ja schon so weit und behaupte, dass man ab 40-45 FPS keinen Unterschied mehr ausmachen kann, allerdings habe ich deswegen hier schon jede Menge Gegenwind bekommen.
Im Grunde sind selbst stabile 30 FPS genug, leider sind viele mittlerweile von 60 FPS gewöhnt und kriegen bereits bei 30 FPS die Krise.
Hier kommt der Gegenwind.
Ich kann jetzt nur von mir sprechen, aber ich kann zumindest zwischen 30 bzw. 40 fps und 60 fps schon unterschiede sehen, auf zwischen 60 und 120fps kann ich Änderungen ausmachen, auch wenn diese eher marginal sind. Es ist schön wenn man das Spiel so extrem flüssig auf 60 fps oder gar 120 fps spielen kann, aber ich gebe dir Recht damit wenn du behauptest das 30 fps vollkommen ausreichen.
Zitat von ablank
Aber ist mein Auge überhaubt fähig den Unterschied zu bemerken?
Wo liegt hier die Grenze?
Kommt es nicht eher drauf an was dein Gehirn verarbeiten kann? Das Auge ist ja keine Kamera oder so...
-
Zitat von Weedstoned
Blättert mal in Gamer- bzw. Hardwareforen ein paar Seiten zurück. Da gibts dann Threads, wo Leute nach ner Zweikern-CPU Fragen und als Antwort "Das ist doch viel zu übertrieben" "braucht kein Mensch" "Das kann ja gar kein Spiel richtig ausnutzen" erhalten. Selbiges bei Monitoren über 20", oder bei mehr als 2GB RAM... Und genau das gleiche passiert hier jetzt auch wieder und in ein paar Jahren lacht ihr darüber.
Genau, das kommt noch zu der von mir erwähnten Problematik hinzu! Warum heute 3000€ ausgeben für etwas das ich erst in 2 Jahren brauche?
Und vor allem: Wenn ich es in 2 Jahren dann brauche kostet es nur noch 800€.
-
Zitat von Rye92
Kommt es nicht eher drauf an was dein Gehirn verarbeiten kann? Das Auge ist ja keine Kamera oder so...
Auch wenn ich die Frage nicht biologisch korrekt gestellt habe, hat glaube ich jeder verstanden was gemeint war. Was kann der Mensch wahrnehmen und was nicht?
-
19.12.2014 11:30
#45
Zitat von ablank
Genau, das kommt noch zu der von mir erwähnten Problematik hinzu! Warum heute 3000€ ausgeben für etwas das ich erst in 2 Jahren brauche?
Und vor allem: Wenn ich es in 2 Jahren dann brauche kostet es nur noch 800€.
3 Karten evtl. nicht aber 2 Karten könnten schon Heute benutzen (Wenn 3 Karten Heute Primar zusammen Funktionen würden, wären diese auch Denkbar (Ich würde schätzen das man mit 2 Karten bei 4K gerade mal 30-40FPS hinbekommt (ich kann mich auch irren), wenn die 3 Karte gut mit den anderen beiden Harmoniert, könnten es evtl sogar ca. 60FPS werden.
Natürlich ist Hardware vergänglich. In ein Jahr kommt ja dann schon die nächste Generation raus.
-
Zitat von ablank
Auch wenn ich die Frage nicht biologisch korrekt gestellt habe, hat glaube ich jeder verstanden was gemeint war. Was kann der Mensch wahrnehmen und was nicht?
Denke bis 60 Bilder kann man Unterschiede sehen, alles darüber ist eher nicht mehr oder wenn nur sehr sehr geringfügig unterscheidbar. Haben mir zumindest verschiedene Seiten so versucht zu erklären, und ich konnte dies bei mir so ebenfalls feststellen. Denke aber letztendlich kann man da fast keine Pauschalaussage treffen.
-
19.12.2014 11:48
#47
Hier mal drei interessante Zitate von Chip.de:
- Zudem unterstützen die meisten Games die hohe Auflösung noch nicht. Durch das größere Format wirken Menüs von Windows und Co. auch auf dem Fernseher sehr klein. Außerdem wären zwei sehr teure State-of-the-Art-Grafikkarten wie die Geforce GTX Titan nötig. Möchten Sie also einen 4K-Monitor mit Ihrem PC nutzen, kämen mehrere Tausend Euro auf Sie zu.
- Aktuell wird 4K außerdem durch den HDMI-Standard von 1.4 gebremst, denn hiermit sind bei 3840 x 2160 Pixeln snur 30 Frames pro Sekunde möglich, bei 4096 mal 2160 sogar nur 24 FPS! Abhilfe schafft erst der neue Standard HDMI 2.0 mit bis zu 60 FPS. Doch auch der lässt noch auf sich warten.
- Und ein weiterer Konkurrent steht bereits mit "8K" in den Startlöchern: Das "Ultra Ultra HD" soll 7680×4320 Pixel bzw. 4320p besitzen.
Da wird einerseits von 2 Grafikkarten gesprochen (Geforce GTX Titan), andererseits bremst der HDMI-Standard die FPS ab und bis der neue Standard 2.0 kommt, dauert es wohl noch etwas.
Trotz dieser "Hürden" wird dann wiederum bereits von 8k gesprochen, was dann aber wohl tatsächlich große Zukunftsmusik ist... in 10 Jahren haben wir dann vermutlich 30k und eine Auflösung von "Ultra Ultra Ultra Ultra Ultra Ultra Ultra HD".
-
Wozu 3 oder gar 4 Grakas? Für 12K Gaming, Downsampling und 120Hz monitore
Ich hab 2 Karten hier, die laufen aber bei einigen Spielen schon arg am anschlag, werde die bald ersetzten und bin auch am nachdenken über eine 3te
Das kommt aber ganz drauf an was du brauchst und was du ausgeben willst.
Für nen FullHD 60Hz monitor reicht eine Karte aber locker aus, dort profitiert man von DualGPU fast nicht.
Anders sieht es bei Adaptive Sync, 120Hz, WQHD+, Eyefinity(surround) systemen aus, bzw. solche mit kombinationen da draus. Da braucht man eben plötzlich etwas mehr Leistung.
PS: ne R9 295X2 ist schneller und leiser als ne GTX Titan
Bezüglich HDMI: Da wird dann mit 2* HDMI agearbeitet, also aus dem Bildschirm 2 gemacht. Und sonst hald DP verwenden, ist eh besser und billiger
Zitat von Rye92
Denke bis 60 Bilder kann man Unterschiede sehen, alles darüber ist eher nicht mehr oder wenn nur sehr sehr geringfügig unterscheidbar. Haben mir zumindest verschiedene Seiten so versucht zu erklären, und ich konnte dies bei mir so ebenfalls feststellen. Denke aber letztendlich kann man da fast keine Pauschalaussage treffen.
Das Liegt grösstenteils an den Monitoren, diese stellen nur 60 FPS dar, ergo kann man zwischen 60 und 120 FPS im normalfall keinen unterschied sehen, bei 120/144Hz monitoren sieht das wieder anders aus.
-
19.12.2014 11:52
#49
Zitat von Multithread
Wozu 3 oder gar 4 Grakas? Für 12K Gaming, Downsampling und 120Hz monitore
Ich hab 2 Karten hier, die laufen aber bei einigen Spielen schon arg am anschlag, werde die bald ersetzten und bin auch am nachdenken über eine 3te
Das kommt aber ganz drauf an was du brauchst und was du ausgeben willst.
Für nen FullHD 60Hz monitor reicht eine Karte aber locker aus, dort profitiert man von DualGPU fast nicht.
Anders sieht es bei Adaptive Sync, 120Hz, WQHD+, Eyefinity(surround) systemen aus, bzw. solche mit kombinationen da draus. Da braucht man eben plötzlich etwas mehr Leistung.
PS: ne R9 295X2 ist schneller und leiser als ne GTX Titan
Bezüglich HDMI: Da wird dann mit 2* HDMI agearbeitet, also aus dem Bildschirm 2 gemacht. Und sonst hald DP verwenden, ist eh besser und billiger
Das Liegt grösstenteils an den Monitoren, diese stellen nur 60 FPS dar, ergo kann man zwischen 60 und 120 FPS im normalfall keinen unterschied sehen, bei 120/144Hz monitoren sieht das wieder anders aus.
Es ging eigentlich nur um die Theoretische Frage von den Nutzen von 3 Karten beim Spielen.
-
19.12.2014 11:55
#50
Theoretisch ist alles möglich, der Nutzen ist aktuell nur für Hardcore-Spieler (wozu ich Lara Croft zählen würde ) vorhanden.
Mit 2 Grafikkarten solltest Du aktuell wohl am besten fahren, eine spätere Aufrüstung kann man immernoch durchführen und bis dahin wird sich die Technik sowieso noch ein paar Stückchen weiterentwickeln, weswegen sich das warten durchaus lohnen wird.
-
19.12.2014 12:13
#51
Zitat von Defc
Theoretisch ist alles möglich, der Nutzen ist aktuell nur für Hardcore-Spieler (wozu ich Lara Croft zählen würde ) vorhanden.
Mit 2 Grafikkarten solltest Du aktuell wohl am besten fahren, eine spätere Aufrüstung kann man immernoch durchführen und bis dahin wird sich die Technik sowieso noch ein paar Stückchen weiterentwickeln, weswegen sich das warten durchaus lohnen wird.
Naja. Ich war mir am Anfang des Therad nicht sicher ob Windows und die Spiele die man spielt, auch drei Karten annimmt.
-
19.12.2014 12:16
#52
-
Zitat von ablank
Aber ist mein Auge überhaubt fähig den Unterschied zu bemerken?
Wo liegt hier die Grenze?
Wenn man die Grenze als die Frequenz bezeichnet, ab der man im Blindtest keinen Unterschied mehr zu beliebigen höheren Frequenzen erkennen kann, dann wurde die Frequenz bisher noch nicht gefunden, da unsere Monitore wohl noch zu langsam sind. Sie ist in jedem Fall wahrscheinlich deutlich über 240 Hz (Unterschiede zwischen 144 und 240 Hz sind noch erkennbar soweit ich weiß).
Die Grenze ist außerden z.B. von deinen Augen und von der Art der Interaktion mit dem Monitor abhängig (Okulus Rift braucht z.B. höhere Frequenzen als Gaming Monitore)
-
19.12.2014 15:04
#54
Zitat von Kellendil
Wenn man die Grenze als die Frequenz bezeichnet, ab der man im Blindtest keinen Unterschied mehr zu beliebigen höheren Frequenzen erkennen kann, dann wurde die Frequenz bisher noch nicht gefunden, da unsere Monitore wohl noch zu langsam sind. Sie ist in jedem Fall wahrscheinlich deutlich über 240 Hz (Unterschiede zwischen 144 und 240 Hz sind noch erkennbar soweit ich weiß).
Die Grenze ist außerden z.B. von deinen Augen und von der Art der Interaktion mit dem Monitor abhängig (Okulus Rift braucht z.B. höhere Frequenzen als Gaming Monitore)
Ich frage mich immer, wieso Fernseher oft eine sehr hohe Herz zahl haben, obwohl Filme und Serien in weniger als 30FPS gedreht werden (24 und wenige sogar mit 48)
-
Zitat von jim360
Ich frage mich immer, wieso Fernseher oft eine sehr hohe Herz zahl haben, obwohl Filme und Serien in weniger als 30FPS gedreht werden (24 und wenige sogar mit 48)
Zum einen wahrscheinlich schlicht veraltete Standards sowie Equipment. Das Equipment der Filmindustrie (sowohl Software wie auch Hardware und die ganzen Standards) sind lange Zeit für 24 fps optimiert wurden. Die entsprechenden Standards zu verändern ist schwierig. Außerdem kannst du die niedrigen FPS im Filmbereich durch hochqualitatives Motion-Blur (Frames werden "verwischt" dargestellt, um höhere Flüssigkeit zu imitieren) und langsame Kamerafahrten teilweise ausgleichen.
Daraus resultiert auch das Gefühl vieler Leute, das Filme mit 48 fps nicht mehr so gut wie "alte Filme" aussehen, weil dort viele Techniken schlicht nicht mehr nötig sind, um die niedrigen fps auszugleichen, an die die meisten Leute aber mitlerweile gewöhnt sind und die dann vermisst werden.
Bei interaktiven Medien hingegen kannst du nur schlecht Motion-Blur einsetzen und die Kameraschwenkgeschwindigkeit ist vom Spieler abhängig, also meistens nicht begrenzt (gibt natürlich Ausnahmen, bei Konsolen öfters beschränkt aufgrund der Sticksteuerung).
Bei den Fernsehern sind 60 Hz nötig, wenn sie konsolentauglich sein sollen. Und man kann höhere Zahlen besser vermarkten.
-
Zitat von jim360
Es ging eigentlich nur um die Theoretische Frage von den Nutzen von 3 Karten beim Spielen.
Geht, in vielen Spielen, bzw. fast in allen die auch mit 2 Karten umgehen können
Nutzen: immer dann wenn eine Karte nicht schnell genug ist.
Zitat von Defc
Theoretisch ist alles möglich, der Nutzen ist aktuell nur für Hardcore-Spieler (wozu ich Lara Croft zählen würde ) vorhanden.
Mit 2 Grafikkarten solltest Du aktuell wohl am besten fahren, eine spätere Aufrüstung kann man immernoch durchführen und bis dahin wird sich die Technik sowieso noch ein paar Stückchen weiterentwickeln, weswegen sich das warten durchaus lohnen wird.
Für 3 Karten reicht ein Sokel 1155/AM3+/1150 nicht mehr aus, da muss dann ein eigentlich So.2011 her um die Grakas nicht zu stark auszubremsen.
Zitat von jim360
Naja. Ich war mir am Anfang des Therad nicht sicher ob Windows und die Spiele die man spielt, auch drei Karten annimmt.
Den Spielen ist das egal, wichtig ist ob der Treiber ein entsprechendes profil hat.
Zitat von jim360
Ich frage mich immer, wieso Fernseher oft eine sehr hohe Herz zahl haben, obwohl Filme und Serien in weniger als 30FPS gedreht werden (24 und wenige sogar mit 48)
Die Herz angaben bei Fernsehern sind teilweise einfach nur Marketing blah blah (aka jede 4te Zeile wird mit 600Hz aufgefrischt) Die meisten Fernseher setzen auf 50/60 oder 100/120 Herz bei Volbilddarstellung
Monitore mit 240 Hz stellen auch nur bilder doppelt dar, annehmen tun die nämlich auch nur 120Hz.
-
3 Grafikkarten?
Klar, top Preis-Leistungs-Verhältnis und immer sehr kompatibel zu allen Engines dank irgendeines Beta-Treibers, der extra für das Gespann optimiert wurde. Wenn der mal nicht funktioniert bei einem Game, biste gearscht.
Beim Flight Simulator wurde das mal angepriesen von AMD. 6 Bildschirme, 2 Grakas, waren allerdings 4 GPUs afaik. Die Frage ist jetzt: Braucht das wer? Nein. Irgendwelche Profilierungssüchtige brauchen das vielleicht.
Aber klar, grundsätzlich laufen die Karten auch überall, wo Multi-GPUs funktionieren. Die höhere Ressourcen lassen nur die Leistung und vorallem die Auflösung steigern.
Das ist die nächsten 3 Jahre eh uninteressant, weil für größe Auflöngen braucht man richtig viel Speicher, denn mit der Entwicklungen kommen ja auch andere Neuerung die viel Speicher fressen. Texturen werden immer größer, Polygonmodelle immer genauer.
Vielleicht haben wir in 5 Jahren 27"er mit 3840x2160 Reso zu Hause und Grafikkarten, die 16-32 GB RAM haben.
Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
[Bild: downloadvpk5n.gif]
Geändert von Nobbi Habogs (21.12.2014 um 11:59 Uhr)
-
Braucht man überhaupt einen PC? eine Knsole? Strom? Nein, das ist reiner Luxus und spielen ein HObby, also brauchen tut das eeigentlich niemand, aber wollen schon
-
Zitat von Defc
Ich gehe ja schon so weit und behaupte, dass man ab 40-45 FPS keinen Unterschied mehr ausmachen kann, allerdings habe ich deswegen hier schon jede Menge Gegenwind bekommen.
Im Grunde sind selbst stabile 30 FPS genug, leider sind viele mittlerweile von 60 FPS gewöhnt und kriegen bereits bei 30 FPS die Krise.
Vielleicht liegt das bei mir auch daran, dass ich jahrelang einen relativ schwachen PC hatte und meist bei 30 FPS die Grenze der Leistungsfähigkeit erreicht war. Mittlerweile habe ich bekanntermaßen eine PS4, da sind 30 FPS ja ohnehin meist Standard (mit Ausnahme von ein paar Titeln, so schafft Giana Sisters: Twisted Dreams solide 60 FPS und das immerhin bei 1080p, wobei das Spiel grafisch jetzt auch keine Perle ist, zumindest nicht im direkten Vergleich zu anderen PS4-Titeln).
Also ich sehe einen Unterschied bei 30-60 fps, aber auch einen Unterschied bei 60-120 fps. Wenn man es testen will sollte man sich einen Shooter nehmen und ihn auf 60 fps laufen lassen und dann auf 120fps. Ist schon ein Unterschied zu erkennen auch wenn es recht schwierig sein wird.
Mir reichen 30fps bei Games teilweise aus, solange ich sie noch in Ultra spielen kann. Meine Übertaktete GTX 660 schafft Dragon Age Inquisition grade so stabil auf 30fps auf Ultra Settings zu stämmen.
Aber bald flattert die GTX 970 ins Haus, dann wird wieder konstant mit 100fps gespielt
-
23.12.2014 14:32
#60
Zitat von SkoiL
Also ich sehe einen Unterschied bei 30-60 fps, aber auch einen Unterschied bei 60-120 fps. Wenn man es testen will sollte man sich einen Shooter nehmen und ihn auf 60 fps laufen lassen und dann auf 120fps. Ist schon ein Unterschied zu erkennen auch wenn es recht schwierig sein wird.
Mir reichen 30fps bei Games teilweise aus, solange ich sie noch in Ultra spielen kann. Meine Übertaktete GTX 660 schafft Dragon Age Inquisition grade so stabil auf 30fps auf Ultra Settings zu stämmen.
Aber bald flattert die GTX 970 ins Haus, dann wird wieder konstant mit 100fps gespielt
Du bist ja richtig verwöhnt. Na dann viel spaß
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
|
|