Seite 1 von 3 123 Letzte »
Ergebnis 1 bis 20 von 53

RTX 3080 - Wer hat schon eine?

  1. #1 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Ist hier eigentlich schon irgendjemand in den Genuss einer RTX 3080 gekommen? Habe Anfang Oktober eine bei Cyberport vorbestellt, Liefertermin unbekannt hieß es. War aber relativ Preiswert für ein OC Modell, daher habe ich einfach mal mein Glück versucht.

    Mittlerweile haben sie tatsächlich alle 3080-Modelle vorläufig aus dem Sortiment genommen. Ob das heißen könnte, das bald eine neue Lieferung kommt und man vermeiden will, dass mehr Leute vorbestellen als man Karten auf Lager hat? Ist die erste Graka die ich mir relativ kurz nach Launch kaufe, daher weiß ich nicht wie normal das ist. Wäre ja froh wenn sie dieses Jahr noch kommt. Wenn ihr schon eine habt, würde mich interessieren, wo ihr sie gekauft habt und wie lange ihr warten musstet!
    Jazz Jackrabbit ist offline

  2. #2 Zitieren
    Pretty Pink Pony Princess  Avatar von Multithread
    Registriert seit
    Jun 2010
    Ort
    Crystal Empire
    Beiträge
    11.233
    Laut einigen Gerüchten gibt es die 3080 Karten bis ende Jahr nur in sehr kleinen Mengen. Wir reden da wohl von wenigen Tausend Stück für Deutschland bisher.
    Viel glück beim warten.

    Als vergleich: Deutschland hat wohl ca. 100'000 PS5 zum Launchtag als Kontingent.
    [Bild: AMD_Threadripper.png] Bei Hardware gibt es keine eigene Meinung, bei Hardware zählen nur die Fakten.


    Probleme mit der Haarpracht? Starres Haar ohne Glanz? TressFX schafft Abhilfe. Ja, TressFX verhilft auch Ihnen zu schönem und Geschmeidigen Haar.
    [Bild: i6tfHoa3ooSEraFH63.png]
    Multithread ist offline

  3. #3 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.593
    NVIDIA selbst - IIRC sogar CEO Jensen - hat auch schon gesagt, das die Situation dieses Jahr nicht mehr deutlich besser wird.
    Man kann nur hoffen, das sich die Situation entspannt, sobald AMDs 6000er Reihe auf dem Markt ist. Eine Leistung auf dem Niveau der 3080 wurde von AMD ja vorgestern in Aussicht gestellt.

    Für NVIDIA wäre es zwar weniger gut, wenn jene die sich eine 3080 bestellt haben oder vorhatten, zur 6900 greifen eben weil diese Verfügbar ist. Aber für die Kunden ist es gut, da sie nicht so lange warten müssen.

    Auch die 3070 wird noch kommen, so das manch einer evtl. zur langsameren Alternative greift - oder eben zur 6800. Auf umso mehr Produkte sich die Käuferschicht verteilt, umso eher lässt sich die Nachfrage evtl. bedienen. Zumindest wenn es sich auf zumindest zwei GPU-Hersteller verteilt. Die Exklusiv-Partner die nur AMD / NVIDIA GraKas produzieren, behindern sich ja nicht selbst durch die Produktion anderer Modelle.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  4. #4 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Zitat Zitat von Multithread Beitrag anzeigen
    Laut einigen Gerüchten gibt es die 3080 Karten bis ende Jahr nur in sehr kleinen Mengen. Wir reden da wohl von wenigen Tausend Stück für Deutschland bisher.
    Viel glück beim warten.

    Als vergleich: Deutschland hat wohl ca. 100'000 PS5 zum Launchtag als Kontingent.
    Das ist echt erstaunlich. Dabei gibt es doch gerade in Deutschland so viele PC-Spieler. Denen musste doch klar sein dass es wieder einen Ansturm auf die Grafikkarten gibt. Hält Nvidia absichtlich Ware zurück oder was?

    Zitat Zitat von Homerclon Beitrag anzeigen
    NVIDIA selbst - IIRC sogar CEO Jensen - hat auch schon gesagt, das die Situation dieses Jahr nicht mehr deutlich besser wird.
    Man kann nur hoffen, das sich die Situation entspannt, sobald AMDs 6000er Reihe auf dem Markt ist. Eine Leistung auf dem Niveau der 3080 wurde von AMD ja vorgestern in Aussicht gestellt.

    Für NVIDIA wäre es zwar weniger gut, wenn jene die sich eine 3080 bestellt haben oder vorhatten, zur 6900 greifen eben weil diese Verfügbar ist. Aber für die Kunden ist es gut, da sie nicht so lange warten müssen.

    Auch die 3070 wird noch kommen, so das manch einer evtl. zur langsameren Alternative greift - oder eben zur 6800. Auf umso mehr Produkte sich die Käuferschicht verteilt, umso eher lässt sich die Nachfrage evtl. bedienen. Zumindest wenn es sich auf zumindest zwei GPU-Hersteller verteilt. Die Exklusiv-Partner die nur AMD / NVIDIA GraKas produzieren, behindern sich ja nicht selbst durch die Produktion anderer Modelle.
    Ja, hoffentlich übt AMD da etwas Konkurrenzdruck auf NVIDIA aus. Die Begründung des CEOs, dass die Nachfrage zu hoch sei passt ja irgendwie nicht dazu, dass gerade kein Händler in Deutschland welche bekommt (und wenn dann in lächerlich geringer Stückzahl). Ich glaube eher dass hier mit Absicht eine künstliche Verknappung geschaffen wird. Es kann nicht SO viele Leute geben, die sich genau jetzt eine 700 Euro-Graka kaufen müssen. Das ist eine Investition, die ich vielleicht alle 5-6 Jahre mache. Meine letzte war eine GTX 970, die selbst jetzt immer noch keine schlechte Karte ist und wesentlich günstiger als 700 Euro war, aber die ist jetzt auch 6 Jahre alt und darf langsam abgelöst werden.
    Jazz Jackrabbit ist offline

  5. #5 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.593
    Es gibt auch Nutzer die kaufen bei jeder neuen Generation eine neue GraKa, auch im High-End- oder gar Enthusiast-Bereich.

    Es gibt noch das Gerücht, das noch dieses Jahr die 3000er-Modelle mit doppelten Grafikspeicher kommen - voraussichtlich kurz nach den neuen Radeons - und diese die Produktionskapazitäten abschöpfen.
    Allerdings wäre es eine dumme Entscheidung von NVIDIA gewesen, ihre Kunden so vor den Kopf zu stoßen. Einige derer die jetzt eine 3080, 10GB bestellt haben, hätten sicherlich lieber eine 3080, 20GB.
    Die 10GB sind aktuell zwar noch in den meisten fällen ausreichend, aber es gibt auch bereits (nicht konstruierte) Szenarien wo die 10GB nicht mehr reichen, obwohl die GPU schnell genug für (gut) spielbare FPS wäre. Und diese Szenarien werden sicherlich in den kommenden 1-2 Jahren häufiger auftreten.
    Wer sich also jetzt die 3080 mit 10GB kauft, der darf dann direkt bei Release in einem 4080 investieren, oder reduziert Details. Während jene mit 16-20GB sich über hübschere Bildqualität freuen, und nicht dazu getrieben werden ein Nachfolger-Modell zu kaufen.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  6. #6 Zitieren
    Halbgott Avatar von Morrich
    Registriert seit
    Feb 2013
    Ort
    Dresden
    Beiträge
    9.661
    Wobei sich die Nutzer, die in absehbarer Zeit ins 10GB Limit laufen, das ja auch vor dem Kauf einer 3080 10GB hätten überlegen können. Immerhin wurde ja schon lange vor Release darüber spekuliert, dass da nochmal ein Modell mit mehr Speicher kommen soll.
    Insofern sind diese Käufer dann tatsächlich selbst schuld, wenn sie partout nicht warten wollen.
    Desktop: Nanoxia DeepSilence 1/ AMD Ryzen 7 5800X3D + Thermalright Peerless Assassin 120 SE / MSI MPG X570 Plus Gaming / Sapphire Pulse RX 6700XT / 64 GB G.Skill FlareX 3200MHz / Sabrent Rocket NVMe 4.0 1TB / MegaElectronics M200 2TB / Crucial MX500 2TB / be quiet! Pure Power 12M 650W / Teufel Concept E Magnum PE
    Notebook: Lenovo Legion 5 / Ryzen 5 4600H / GTX 1650Ti / 16GB DDR4 3200MHz / 2TB Adata XPG SX6000 Pro / 2TB WD SN550
    Morrich ist offline

  7. #7 Zitieren
    Pretty Pink Pony Princess  Avatar von Multithread
    Registriert seit
    Jun 2010
    Ort
    Crystal Empire
    Beiträge
    11.233
    Die wenigsten Käufer bemühen sich um Gerüchte bevor Sie ein Produkt kaufen. Die wissen noch gar nicht, das eine 3080 20GB kommen wird.

    Geschweige denn, das eine AMD 6900XT 16GB in 6 Wochen kaufbar sein dürfe.
    [Bild: AMD_Threadripper.png] Bei Hardware gibt es keine eigene Meinung, bei Hardware zählen nur die Fakten.


    Probleme mit der Haarpracht? Starres Haar ohne Glanz? TressFX schafft Abhilfe. Ja, TressFX verhilft auch Ihnen zu schönem und Geschmeidigen Haar.
    [Bild: i6tfHoa3ooSEraFH63.png]
    Multithread ist offline

  8. #8 Zitieren
    Halbgott Avatar von Morrich
    Registriert seit
    Feb 2013
    Ort
    Dresden
    Beiträge
    9.661
    Also zumindest die High End Gamer, die ihre Kiste mit 10GB Grafikspeicher wirklich auslasten, informieren sich auf jeden Fall über neue Hardware. Das sind keine 0815 Komplett PC Käufer, die einfach auf Knöpfchen drücken und dann soll die Kiste laufen.
    Desktop: Nanoxia DeepSilence 1/ AMD Ryzen 7 5800X3D + Thermalright Peerless Assassin 120 SE / MSI MPG X570 Plus Gaming / Sapphire Pulse RX 6700XT / 64 GB G.Skill FlareX 3200MHz / Sabrent Rocket NVMe 4.0 1TB / MegaElectronics M200 2TB / Crucial MX500 2TB / be quiet! Pure Power 12M 650W / Teufel Concept E Magnum PE
    Notebook: Lenovo Legion 5 / Ryzen 5 4600H / GTX 1650Ti / 16GB DDR4 3200MHz / 2TB Adata XPG SX6000 Pro / 2TB WD SN550
    Morrich ist offline

  9. #9 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Zitat Zitat von Homerclon Beitrag anzeigen
    Es gibt auch Nutzer die kaufen bei jeder neuen Generation eine neue GraKa, auch im High-End- oder gar Enthusiast-Bereich.

    Es gibt noch das Gerücht, das noch dieses Jahr die 3000er-Modelle mit doppelten Grafikspeicher kommen - voraussichtlich kurz nach den neuen Radeons - und diese die Produktionskapazitäten abschöpfen.
    Allerdings wäre es eine dumme Entscheidung von NVIDIA gewesen, ihre Kunden so vor den Kopf zu stoßen. Einige derer die jetzt eine 3080, 10GB bestellt haben, hätten sicherlich lieber eine 3080, 20GB.
    Die 10GB sind aktuell zwar noch in den meisten fällen ausreichend, aber es gibt auch bereits (nicht konstruierte) Szenarien wo die 10GB nicht mehr reichen, obwohl die GPU schnell genug für (gut) spielbare FPS wäre. Und diese Szenarien werden sicherlich in den kommenden 1-2 Jahren häufiger auftreten.
    Wer sich also jetzt die 3080 mit 10GB kauft, der darf dann direkt bei Release in einem 4080 investieren, oder reduziert Details. Während jene mit 16-20GB sich über hübschere Bildqualität freuen, und nicht dazu getrieben werden ein Nachfolger-Modell zu kaufen.
    Ich hätte auch lieber mehr als 10GB gehabt, aber momentan reichen die für die meisten Spiele in 4k ja noch aus. Das wird definitiv die Sollbruchstelle bei dieser Karte werden und nicht die reine Rechenleistung. Dass 20GB-Modelle kommen war mir auch bewusst, war mir den Aufpreis nicht aber nicht wert. Mir wäre lieber gewesen wenn die 3080 standardmäßig 12GB gehabt hätte und nicht 1GB weniger als das vorherige Topmodell. Ich habe das Glück dass ich einen 4k 60Hz und einen 1440p 144 Hz (mit G-Sync) Monitor hier stehen habe, zur Not kann ich dann in niedrigerer Auflösung mit mehr fps und weniger Speicherverbrauch spielen. Eigentlich war der Gedanke dahinter, dass ich je nach Spiel immer die Option zwischen hoher Auflösung und hoher Bildwiederholrate habe. Mit der 3080 10GB fällt die Option in 4k zu spielen bei manchen Spielen irgendwann weg. Wahrscheinlich wird mein nächstes Upgrade nach der 3080 deshalb auch früher passieren. Zum Glück gibt es ja noch DLSS, was hoffentlich in immer mehr Spiele integriert wird und meiner Meinung nach ein Riesenvorteil gegenüber AMD-Karten ist.
    Jazz Jackrabbit ist offline Geändert von Jazz Jackrabbit (11.10.2020 um 13:33 Uhr)

  10. #10 Zitieren
    Halbgott Avatar von Morrich
    Registriert seit
    Feb 2013
    Ort
    Dresden
    Beiträge
    9.661
    Du kannst dir sicher sein, dass auch AMD ähnliches wie DLSS in der Mache hat. Deren Entwickler sind ja auch keine Idioten und wissen, dass sie da was bringen müssen. Ich bin gespannt, was AMD mit den RX6000er Karten tatsächlich bringt.
    Desktop: Nanoxia DeepSilence 1/ AMD Ryzen 7 5800X3D + Thermalright Peerless Assassin 120 SE / MSI MPG X570 Plus Gaming / Sapphire Pulse RX 6700XT / 64 GB G.Skill FlareX 3200MHz / Sabrent Rocket NVMe 4.0 1TB / MegaElectronics M200 2TB / Crucial MX500 2TB / be quiet! Pure Power 12M 650W / Teufel Concept E Magnum PE
    Notebook: Lenovo Legion 5 / Ryzen 5 4600H / GTX 1650Ti / 16GB DDR4 3200MHz / 2TB Adata XPG SX6000 Pro / 2TB WD SN550
    Morrich ist offline

  11. #11 Zitieren
    Ehrengarde
    Registriert seit
    May 2010
    Ort
    Nrw
    Beiträge
    2.487
    "Zum Glück gibt es ja noch DLSS, was hoffentlich in immer mehr Spiele integriert wird und meiner Meinung nach ein Riesenvorteil gegenüber AMD-Karten ist."

    Derzeit unterstützen 8 Spiele DLSS 2.0, wie kann sowas ein riesen Vorteil sein ?
    DLSS 1.0 lasse ich mal raus, da das Resultat nicht wirklich gut war wenn man DLSS 1.0 eingeschaltet hat.


    Eine super Technologie die aber
    1. noch von den Entwicklern implementiert werden muss, sprich nicht jedes Spiel wird das unterstützen.
    2. Die nicht nur positiv sondern auch negativ bzw neutral sich auf die FPS auswirken können.



    DLSS 2.0 ist auch nicht perfekt btw

    https://youtu.be/PXCrRLFrHKo?t=338


    Vielleicht taugt diese Technologie in 3-5 Jahren etwas, wer weiß.



    Meine 3080 Lieferung wurde auf Mitte Dezember angekündigt, wobei mir auch gesagt wurde das es auch 2021 werden kann, habe es storniert.
    Zankro ist offline

  12. #12 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Zitat Zitat von Zankro Beitrag anzeigen
    "Zum Glück gibt es ja noch DLSS, was hoffentlich in immer mehr Spiele integriert wird und meiner Meinung nach ein Riesenvorteil gegenüber AMD-Karten ist."

    Derzeit unterstützen 8 Spiele DLSS 2.0, wie kann sowas ein riesen Vorteil sein ?
    Ich bezog mich dabei auf alle Spiele, die noch kommen werden und wo die 3080 ohne DLSS an ihr Speicherlimit gehen würde. Aber die 8 Spiele die es haben (die 2.0 Version), zeigen ja was für ein Potential es bietet. Da die Userbase von RTX Karten immer größer wird (2060 kriegt man jetzt schon für unter 300€) werden es mit Sicherheit auch bald mehr Entwickler unterstützen.


    Zitat Zitat von Zankro Beitrag anzeigen
    DLSS 2.0 ist auch nicht perfekt btw

    https://youtu.be/PXCrRLFrHKo?t=338


    Vielleicht taugt diese Technologie in 3-5 Jahren etwas, wer weiß.
    Diese Spuren, die bei starken Kontrastunterschieden gezogen werden sind schon hässlich. Aber mal ehrlich, wie oft sieht man kleine schwarze Objekte vor einem hellen Hintergrund vorbeifliegen? Ich glaube Death Stranding ist aufgrund seines Artstyles ein absolutes Ausnahmebeispiel. Und wer weiß ob es diese Probleme in zukünftigen Versionen noch gibt.


    Zitat Zitat von Zankro Beitrag anzeigen
    Meine 3080 Lieferung wurde auf Mitte Dezember angekündigt, wobei mir auch gesagt wurde das es auch 2021 werden kann, habe es storniert.
    Das ist hart. Wo und wann hast du sie denn bestellt? Ich glaube aber nicht dass ich meine noch stornieren werde, selbst wenn sie erst im Januar kommt. Ich warte auch noch auf die AMD CPUs. Hoffentlich passiert dort nicht das gleiche. Sonst habe ich soweit alles für den neuen PC zusammen.
    Jazz Jackrabbit ist offline

  13. #13 Zitieren
    Ehrengarde
    Registriert seit
    May 2010
    Ort
    Nrw
    Beiträge
    2.487
    Zitat Zitat von horstVyacheslav420 Beitrag anzeigen

    Das ist hart. Wo und wann hast du sie denn bestellt? Ich glaube aber nicht dass ich meine noch stornieren werde, selbst wenn sie erst im Januar kommt. Ich warte auch noch auf die AMD CPUs. Hoffentlich passiert dort nicht das gleiche. Sonst habe ich soweit alles für den neuen PC zusammen.
    Caseking und MF, beide Händler haben mich halt auf Ende 2020 vertröstet, und das obwohl ich zum Release hin bestellt habe, war wohl doch nicht so schnell.

    Naja gebe halt ungerne ein Kredit ohne Zinsen


    Und da eh die neuen GPU´s von AMD kommen dachte ich mir, eh kannst auch stornieren.
    Zankro ist offline

  14. #14 Zitieren
    Legende Avatar von jabu
    Registriert seit
    Jul 2011
    Beiträge
    7.383
    NVIDIA hat ein immerhin einigermaßen brauchbares Referenzdesign vorgelegt, Tantal-Vielschichtkondensatoren UND Keramik-Vielschichtkondensatoren, anscheinend in Parallelschaltung, jeweils dicht am Chip. Die Anforderungen sind so gewaltig, dass Abweichungen davon heikel sind. Die unterschiedlichen Typen kompensieren gegenseitig ganz normale Schwächen des jeweils anderen Typs.

    Die Tantalkondensatoren braucht man für eine große Kapazität (als Puffer für große, etwas länger, ca. Mikrosekunden, anhaltende Stromanstiegsflanken) und die Keramikkondensatoren zum Abfangen der steilsten Flankenbestandteile (eher Nanosekunden), evtl. auch zur Hochfrequenzentkopplung und gegen ein mögliches und bei reiner Verwendung von Tantalkondensatoren zu erwartendes Überschwingen, welches noch mehr als ein bloßer Spannungseinbruch destabilisieren kann.

    Aber Gigabyte und manche andere "Boardpartner" meinten anscheinend, dass die richtigen Entwickler bzw. Ingenieure von NVIDIA nicht so schlau wie die eigenen "Lötprofis" (PCB-Designer, die in einer Autorouter-Software herumklicken) sind. Oder der Rotstift wollte schlauer als der Entwickler sein. Vermutlich spielt von allem ein wenig mit hinein.

    Ich sehe mit Genugtuung, was da passiert ist. Überall werden Schwätzer und Karrieristen mit aufpoliertem XING- oder LinkedIn-Profil eingestellt. Ich sehe absolut keinen Entschuldigungsgrund für das Desaster (was aber nicht der einzige Grund, vielleicht nicht mal der Hauptgrund, aber vermutlich eben doch ein Grund, sein wird).

    Wer solch eine Schwachsinn wie die meisten Boardpartner schreibt, dem gehört meiner Meinung nach die Boardpartnerschaft entzogen:
    https://videocardz.com/newz/manufact...desktop-issues
    https://www.pcgameshardware.de/Gefor...sicht-1358958/

    Man beachte das überspezifische Dementi von Gigabyte. Für mich ist das die mit Abstand schlimmste Antwort. Bei anderen sehe ich wenigstens noch einen Funken an Respekt vor der Aufgabe, die sich ihnen stellt. Schlimm finde ich aber auch die Antwort von NVIDIA, da sie die Verantwortung der Boardpartner pauschal herunterspielt.

    Dafür, dass Asus sich wegen der durchgehenden Verwendung von Keramikkondensatoren einen Ast freut, habe ich auch keine Sympathien. So unproblematisch, dass man sich ganz entspannt zurücklehnen könnte, sind Piezo-Effekt und der Verzicht auf Kapazität auch nicht. Etwas mehr Selbstreflexion (was Demut anstatt dieser forschen Art erzeugen sollte) wäre angebracht.

    Den Vogel hat meiner Meinung nach Gigabyte abgeschossen, sinngemäß:
    Tantalkondensatoren werden es richten, wenn sie nur groß genug sind, und auf die Spannungsregelung käme es angeblich auch an (wohl als Kompensation gemeint).

    Nein, Gigabyte, genau das^, was ihr da behauptet, ist absolut falsch. Man kann nicht mit den weit entfernten Reglern und deren Elkos hinter einer zwangsläufig induktiv und resistiv wirkenden Leitung abfangen, was direkt am Chip an Flankensteilheit nicht abgefangen wird. Schon eher funktioniert das krasse Gegenteil, wie von Asus durchgeführt (am Chip nur Keramikkondensatoren), man weiß bloß nicht, wie lange, wegen des Piezo-Effektes. Nur eine aus physikalischer Sicht mindestens dem Referenzdesign von NVIDIA ebenbürtige Auslegung bezüglich dieser Kondensatorbestückung wäre seriös gewesen. Die Anforderungen sind so krass, dass man nicht (wie ihr es gemacht habt) dahinter zurückstehen kann. Am ehesten könnte Asus die fehlende Kapazität woanders abfangen (wäre mein Ansatz gewesen). Andersherum, also Impulsflanken am Regler abzufangen, ist physikalisch unmöglich. Und wer, wie ihr (Gigabyte), trotzdem den Eindruck, dass das möglich wäre, subtil unterzuschieben versucht, disqualifiziert sich in meinen Augen (als mit einfachen Bewertungen von Anforderungen überfordert oder als Lügner).

    Von irgendwelchen "Lötheinis" will ich keine dermaßen teure Grafikkarte kaufen, auch dann nicht, wenn die Treiber die Last entschärfen.
    jabu ist offline

  15. #15 Zitieren
    Pretty Pink Pony Princess  Avatar von Multithread
    Registriert seit
    Jun 2010
    Ort
    Crystal Empire
    Beiträge
    11.233
    Es gehen Gerüchte um (von Insiderquellen), das es wohl keine 100'000 3000er Karten von NVidia zu kaufen gab/gibt im ersten Monat, vermutlich sogar nur 30'000.
    Kein wunder kann niemand eine Kaufen.
    [Bild: AMD_Threadripper.png] Bei Hardware gibt es keine eigene Meinung, bei Hardware zählen nur die Fakten.


    Probleme mit der Haarpracht? Starres Haar ohne Glanz? TressFX schafft Abhilfe. Ja, TressFX verhilft auch Ihnen zu schönem und Geschmeidigen Haar.
    [Bild: i6tfHoa3ooSEraFH63.png]
    Multithread ist offline

  16. #16 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.061
    Zitat Zitat von jabu Beitrag anzeigen
    Die Tantalkondensatoren braucht man für eine große Kapazität (als Puffer für große, etwas länger, ca. Mikrosekunden, anhaltende Stromanstiegsflanken) und die Keramikkondensatoren zum Abfangen der steilsten Flankenbestandteile (eher Nanosekunden), evtl. auch zur Hochfrequenzentkopplung und gegen ein mögliches und bei reiner Verwendung von Tantalkondensatoren zu erwartendes Überschwingen, welches noch mehr als ein bloßer Spannungseinbruch destabilisieren kann.
    Kann die Temperaturstabilität auch ein Faktor sein? Ich habe mir sagen lassen, dass Keramikkondensatoren (anders als Tantals) bei der Kapazität in Abhängigkeit von der Temperatur wohl gerne etwas durch die Gegend driften. Keine Ahnung, ob das hier eine Rolle spielt (verstehe ja eh nix davon), aber so ganz naiv könnte ich mir schon vorstellen, dass bei einer Grafikkarte, die ständig zwischen 10 und 300W wechselt, auch die Temperatur regelmäßig und stark schwanken dürfte. Also wenn die Kapazitäten kritisch für die Schaltung sind (kontrollierte Impedanz und so Gedöhns), würde eine Teilbestückung mit Tantalkondensatoren nicht auch die maximale Drift begrenzen?

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist gerade online Geändert von foobar (15.10.2020 um 21:03 Uhr) Grund: Formulierung

  17. #17 Zitieren
    Legende Avatar von jabu
    Registriert seit
    Jul 2011
    Beiträge
    7.383
    Gute Fragen, also gerne:

    Zitat Zitat von foobar Beitrag anzeigen
    Kann die Temperaturstabilität auch ein Faktor sein? Ich habe mir sagen lassen, dass Keramikkondensatoren (anders als Tantals) bei der Kapazität in Abhängigkeit von der Temperatur wohl gerne etwas durch die Gegend driften.
    Das tun grundsätzlich alle Bauformen mehr oder minder. Es kommt auf die Feinheiten an, vor allem auf das Keramikmaterial:
    Es gibt auch unter den Vielschicht-Keramikkondensatoren welche mit fast gar keiner Temperaturdrift, sog. NP0-Kondensatoren, die man z.B. für Oszillatoren oder Filter braucht.

    Die haben aber einen Haken:
    Da das dafür geeignete Material eine sehr kleine Permittivität (auch als Dieelektrizitätskonstante bezeichnet) aufweist, bräuchte man für eine genügende Kapazität für die Starkstromimpulse der GPU große Klopper, sodass das Produkt preislich wie auch mechanisch aus dem Rahmen fallen würde.

    Man braucht Keramiken mit besonders großer Permittivität. Dabei kann die Drift tatsächlich groß werden. Weil die Drift von Tantaltypen bei gemütlichen Temperaturen gemessen wird (typ. -10 % bei 70...80 °C), denn viel vertragen die nicht (z.B. 2000h@105°C, nicht gut!), hinken die Vergleiche manchmal. Oder es wird mit veralteten oder schrecklich billigen MLCCs verglichen. Die -40% von der hochkapazitiven Variante der TDK-MLCCs dürfte praktisch selten erreicht werden.

    Gucken wír uns mal an, was der Hersteller TDK für seine aktuellen Hochtemperatur-MLCCs an Kapazitätsdrift angibt:
    NP0 0±30ppm/°C –55 to +150°C
    X8R ±15% –55 to +150°C <- besser zusätzlich solche auf dem kürzesten Weg parallelschalten
    X8L +15,–40% –55 to +150°C <- für den Hauptteil der Kapazität nötig

    Das sind schon viel bessere Eigenschaften, als der Konkurrent Panasonic uns glauben machen will, wenn er für seine POSCAPs wirbt und dabei Panik gegen MLCCs schürt, zwar mit einem wahren Kern, aber im Endeffekt doch grob verzerrend. Die oben angeführten MLCCs schneiden bei allen hier relevanten Parametern besser ab. Die POSCAPs vertragen längst nicht die Temperatur, die ein Hochtemperatur-MLCC von TDK verträgt. Letztere sind z.B. dafür vorgesehen, direkt bei hochbelasteten IGBTs verlötet zu werden.

    Das soll nur ein Beispiel sein. Speziell auf große C/V bei kleinen Spannungen und minimale Verluste hingezüchtete Typen habe ich nicht extra gesucht.

    Wenn Kostengleichheit bei gleichem C/V verlangt wird, hinkt der Vergleich in der Reklame von Panasonic für die POSCAPs nicht mehr unbedingt, was ein legitimer Beweggrund sein könnte. Die POSCAPs haben ihre Daseinsberechtigung, das ist hier nicht als Kritik an dem Bauteil an sich gemeint. Da sind große Fortschritte gemacht worden. Noch vor rund zwanzig Jahren war alles mit Tantal drin unzuverlässig (ein potentieller Kurzschluss). Aber darum sollte es nicht gehen, wenn ein Produkt, das 800 Euro oder mehr kostet, wegen eines einstelligen Euro-Betrags versaut wird. Wir erwarten an dieser Achillesferse nicht so spottbillige MLCCs, dass der Vergleich aufgeht. Wir erwarten nicht mal, dass die Kapazität ganz die gleiche Größenordnung erreicht.

    Tantal-Cs haben in der Phase des krassesten dI/dT größere interne Verluste und wären daher mehr als die Keramik-Cs thermisch belastet, wodurch der Temperaturvergleich hinkt. Normalerweise ist die Innenaufheizung der Keramic-Cs geringer, was die -40 % vom Worst Case des hochpermittiven X8L-Profils relativiert. Sie steigt aber relativ zu den Tantal-Cs wieder ein wenig dadurch an, dass die Keramik-Cs bei den Flanken überhaupt richtig funktionieren. Verteilt sich die Ladung wegen der Flinkheit gleichmäßiger, so ist die nutzbare Kapazität größer. MLCCs haben an den Flanken, wo die Situation besonders kritisch ist, im Vergleich mit POSCAPs eine relativ höhere nutzbare Kapazität. Ein stumpfer Kapazitätsvergleich ist also auch hier falsch. Er stimmt weder thermisch noch dynamisch.

    Es geht nur um krasse dI/dT. Cs zum glätten langsamer Anteile kann und sollte man nach woandershin wegbauen. Wenn man die Anbindung mit geringen Verlusten schafft, dann genügen ausschließlich Keramikkondensatoren mit relativ geringer Kapazität. Das Problem ist aber, dass die Größenordnung so krass ist, dass jeder Millimeter Leiterbahn einer zu viel sein kann und dass der Rotstift die dicken Drahtbügel (oder breite Blechbänder), die man dazu auf der Unterseite bräuchte, nicht erlaubt. Weil es an einer verlustarmen Zuführung an einen entfernteren Ort mangelt, sitzen die hochkapazitiven Kondensatoren beim Referenzdesign so dicht am Chip. Vermutlich lassen sie sich aber mit etwas Zusatzaufwand wegbauen, sodass direkt unter dem Chip nur noch (umso mehr) Keramikkondensatoren verbaut werden müssten, bei gleichzeitig größerer Kapazität als zuvor. Erst damit hätten wir die für mehr Leistung bei ordentlicher Zuverlässigkeit nötige Skalierung.

    Gigabyte versuchte, gemäß eigener Darstellung, mit großen Kapazitäten zu kompensieren, was gegenüber MLCCs an guten Eigenschaften fehlt. Aber das geht nur bis zu einem gewissen Grad, und wenn die Alterung ins Spiel kommt, nimmt die verlustbedingte Kettenreaktion Fahrt auf. Die Innenaufheizung steigt immer weiter an, bis zum Durchschmelzen der empfindlichen Polymerfolien. Damit die Innenaufheizung gering ausfällt, müssen für große dI/dT qualifiziertere Kondensatoren ergänzt werden.

    Keine Ahnung, ob das hier eine Rolle spielt (verstehe ja eh nix davon), aber so ganz naiv könnte ich mir schon vorstellen, dass bei einer Grafikkarte, die ständig zwischen 10 und 300W wechselt, auch die Temperatur regelmäßig und stark schwanken dürfte.
    Wird sie wohl. Trotzdem kann man auf keramische Kondensatoren nicht verzichten, siehe die vielen anderen, die üblicherweise in noch größerer Anzahl unter solchen Chips verlötet sind. Sogar auf dem Träger des Chips finden sich oftmals welche. Das hat man inzwischen gut im Griff. Die hier angedachten, etwas größeren Typen, sind noch nicht zu groß. Erst wenn die Belastung zur Fremdbeheizung hinzukommt, wird es eng. Es mangelt an Platz, um viele Kondensatoren, zur Aufteilung der Ströme, dicht am Chip und dabei mechanisch unaufwändig, also kostengünstig, unterzubringen.

    Grundsätzlich sind POSCAPs nicht besonders hitzestabil. Sie degradieren allmählich und sicher, nicht ganz wie normale Elkos, aber schon etwas ähnlich. Dafür ist es weniger wahrscheinlich als bei MLCCs, dass ihre Kappen abreißen. Demgegenüber hat man es beim Referenzdesign gleich mit mehreren, parallelgeschalteten, Keramikkondensatoren zu tun. Einen Ausreißer würde man, solange ein Kurzschluss ausbleibt, gar nicht bemerken. Da wir uns in einem Grenzbereich bewegen, gibt es sowieso keine Rechtfertigung für schlechte MLCCs, die leicht Risse bekommen oder denen leicht die Kappen abreißen. Aber tun wir mal so, als ob: Besser zerberstet ein MLCC unter vielen, als dass ein POSCAP den für ihn typischen Kurzschluss bekommt. In jedem Fall ist sicher, dass nach einem defekten POSCAP die Graka nicht mehr richtig laufen wird, wogegen zwei oder drei defekte MLCCs, wenn sie keinen Kurzschluss bekommen, wofür es wenigstens eine Chance gibt (bei POSCAPs eher nicht), unbemerkt bleiben sollten.

    Aber wenn die Kapazitäten kritisch für die Schaltung sind (kontrollierte Impedanz und so Gedöhns),
    Es kommt auf eine möglichst niedrige Impedanz an, über den gesamten Verlauf (keine bestimmte). Resonanzstellen sind zu eliminieren. Und das geht am besten mit einer Parallelschaltung, also nicht ohne MLCCs (oder einem raumgreifenderen Äquivalent).

    würde eine Teilbestückung mit Tantalkondensatoren nicht auch die maximale Drift begrenzen?
    Es gibt MLCCs, die den POSCAPs auch in dieser Disziplin mindestens ungefähr ebenbürtig sind (s.o.). Sollte dieses aus irgendwelchen Gründen trotzdem nicht erreicht werden (z.B. wegen eines anderen MLCC-Typs aufgrund anderer qualitativer Prioritäten oder aus Kostengründen), so hilft die Parallelschaltung (hilft ggf. auch wegen eines größeren C/V). Das ist richtig (kommt jedoch bei guten MLCCs nicht zum Tragen, bei ziemlich beschissenen oder bis an die Kotzgrenze C/V-optimierten evtl. schon). Der Kapazitätswert an sich ist, innerhalb sinnvoller Grenzen, ziemlich egal. Die Exemplarstreuung und die grobe Rasterung der regelmäßig verbauten Normwerte unterstreichen das aus einer anderen Perspektive.

    Bei diesen wenigen winzigen Kondensatoren wäre mir wegen der Anforderungen sowieso mulmig zumute, und zwar auch schon beim Referenzdesign. Angesichts der Größenordnungen, mit denen wir es zu tun haben, fühlt sich das für mich nicht gut an.
    jabu ist offline Geändert von jabu (16.10.2020 um 03:42 Uhr)

  18. #18 Zitieren
    General Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    3.973
    Das war ein reinster Paperlaunch, es gibt so gut wie gar keine Karten. Ich hab nur von 2 Privatpersonen gelesen die eine haben, im Gegensatz dazu hab ich schon 10 verschiedene Youtuber gesehen die eine bei sich haben bzw. teilweise sogar 2. Einfach warten bis man was kaufen kann und fertig. Dieses permanente Geschwätz um Hardware die man nicht kaufen kann und Tests von eben diesen, teilweise sogar in SLI, sind absoluter Mist. Keine Sau interessiert sich für ein Produkt was man nicht kaufen kann.
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    [Bild: downloadvpk5n.gif]
    Nobbi Habogs ist offline

  19. #19 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Zitat Zitat von Nobbi Habogs Beitrag anzeigen
    Das war ein reinster Paperlaunch, es gibt so gut wie gar keine Karten. Ich hab nur von 2 Privatpersonen gelesen die eine haben, im Gegensatz dazu hab ich schon 10 verschiedene Youtuber gesehen die eine bei sich haben bzw. teilweise sogar 2. Einfach warten bis man was kaufen kann und fertig. Dieses permanente Geschwätz um Hardware die man nicht kaufen kann und Tests von eben diesen, teilweise sogar in SLI, sind absoluter Mist. Keine Sau interessiert sich für ein Produkt was man nicht kaufen kann.
    Scheint mir auch so als wenn Tech-Reviewer momentan die einzigen sind, die eine haben. Viele von denen haben kurz danach auch eine 3090 bekommen.

    Schon doof dass ich genau jetzt eine neue GraKa bräuchte. Die 970 kann ich zwar auch noch benutzen aber auf nem 1440p144 Monitor in 60Hz und mittleren Einstellungen spielen ist auch irgendwie witzlos. Ich warte dann mal weiter. Wäre ja schön wenn ich rechtzeitig zu Cyberpunk meinen PC zusammen hätte...
    Jazz Jackrabbit ist offline

  20. #20 Zitieren
    General Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    3.973
    Zitat Zitat von horstVyacheslav420 Beitrag anzeigen
    Scheint mir auch so als wenn Tech-Reviewer momentan die einzigen sind, die eine haben. Viele von denen haben kurz danach auch eine 3090 bekommen.

    Schon doof dass ich genau jetzt eine neue GraKa bräuchte. Die 970 kann ich zwar auch noch benutzen aber auf nem 1440p144 Monitor in 60Hz und mittleren Einstellungen spielen ist auch irgendwie witzlos. Ich warte dann mal weiter. Wäre ja schön wenn ich rechtzeitig zu Cyberpunk meinen PC zusammen hätte...
    Dein Problem ist halt der VRAM, eigentlich ist die 970 sicher noch tragbar, wenn sie einfach mal 8 GB VRAM hätte. Aber in WQHD bist du mit 4GB komplett im Eimer. 6GB wär schon ein riesiger Unterschied und 8GB ein Muss beim Neukauf. Ich würde an deiner Stelle einfach warten und in 1080p zocken. Wie gesagt, eigentlich kann die locker mithalten noch, aber eben nicht mit 4GB für WQHD. Und das ist halt auch genau das Problem über das man sich klar sein muss, wenn man sich einen Monitor mit WQHD holt: Man muss auch immer Grafikkarten haben die relativ viel VRAM haben und mindestens 20% schneller sind als die Modelle die einem für 1080p reichen würden. Statt einer 1060 brauchts eine 1070. Statt einer RX 5600XT brauch man einer RX 5700XT usw.

    Da war halt leider schon der Fehler überhaupt eine 970 mit dem Monitor zu paaren, aber das weißt du jetz sicher auch
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    [Bild: downloadvpk5n.gif]
    Nobbi Habogs ist offline Geändert von Nobbi Habogs (23.10.2020 um 22:15 Uhr)

Seite 1 von 3 123 Letzte »

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •