Seite 8 von 21 « Erste ... 4567891011121519 ... Letzte »
Ergebnis 141 bis 160 von 414

OT-Thread #97 - Neues Jahr, Neue Vorsätze

  1. #141
    Bay Harbour Spammer Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    13.023
    Ich habe den Computer jetzt 4 Stunden laufen gelassen. Auch einige Spiele gespielt, wo der Fehler auftrat. Der Fehler tritt nicht mehr auf. Ich habe XMP ausgeschaltet und den G.Skill ausgebaut. Seitdem läuft der Bumms wieder. Wahrscheinlich hat der G.Skill einen Schaden. Schon wieder. Oder es liegt daran, dass ich ihn mit Corsair gemischt habe. Egal.
    Läuft wieder.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  2. #142
    Drachentöter Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    4.958
    Meiner Erfahrung nach sind eher die Corsair Speicher sehr zickig. Die laufen schon ganz oft untereinander nicht wegen versch. Versionen. Habe 2 Kits die laufen für sich genommen ok, aber selbst auf nur 2133 MHz produzieren die in Memtest Fehler. Aber nur wenn die zusammenlaufen.

    Ändert aber nix daran, dass die Grafikkarte trotzdem zu heiß wird. Vorallem deutlich über 20°C Unterschied zwischen GPU und Hotspot sind ein relativ deutliches Zeichen, dass da die Wärme nicht richtig abgeführt wird.
    [Bild: Main-x600.png]
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    Fortgeschrittenes Nice-to-know über modernen RAM - Warum sollte ich NVMe SSDs statt Festplatten benutzen?
    Nobbi Habogs ist offline

  3. #143
    Bay Harbour Spammer Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    13.023
    Dazu kann ich nichts sagen. Der Corsair-Speicher läuft bei mir ohne Probleme. Deine Erfahrung in allen Ehren aber bei mir funktioniert er eben. Ich hatte vorher den G.Skill alleine verbaut und der hat mir eben Probleme bereitet. Abstürze in Windows und dann auch noch Fehler in Memtest. Ausgebaut, den Corsair gekauft und eingebaut und der Computer lief wieder ohne Probleme. Den G.Skill habe ich dann zur RMA gegeben und einen neuen bekommen.
    Ich habe XMP ausgeschaltet und den G.Skill ausgebaut. Seitdem läuft der Computer wieder fehlerfrei. Ich bin ja gespannt, ob der Corsair mit aktivierten XMP fehlerfrei läuft.

    Was sind denn Temperaturen, die für eine ASUS AMD Radeon 6800 XT in Ordnung sind? Kühler ist natürlich immer besser. Aber ich habe eben noch Garantie auf die Grafikkarte und würde das nur ungern riskieren.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  4. #144
    Drachentöter Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    4.958
    Achso, das mit dem Speicher ist schon geklärt, auch gut.


    Was die Temperaturen angeht müsste man für was handfestes jetzt recherchieren:
    https://www.youtube.com/watch?v=YdBdLfGogEM

    Ich hätte es allerdings ähnlich geschätzt und noch 5°C mehr an Toleranz für Umgebungsbedingungen reingepackt. Aber im Test kommt die Karte bei 240W Verbrauch unter realen Bedingungen im gezeigten Tomb Raider Benchmark auf ca. 60°C/75°C. Selbst wenn man sagt es wären 70/85 wäre das in einer nicht so optimalen Umgebung auch in Ordnung, aber 80/100+ ist es definitiv nicht. Wir haben ja nicht mal Sommer.
    Bei meiner Karte sind auch exakt 15°C Differenz zwischen GPU und Hotspot Sensor. Eine RX 6600 XT Red Devil eines Kollegen hatte das gleiche Problem nach knapp 2 Jahren, seine Karte wurde gefixed/getauscht. Ich hatte auch schon eine GTX 970 und andere Kandidaten die 20°C oder mehr Differenz haben, kleinere Karten tendieren natürlich zu kleineren Werten, aber bis auf meine RX 5700 XT 50th AE gab es da immer eine lösbare Ursache für. Es ist auch leider wirklich nichts ungewöhnliches seit ein paar Jahren, dass man durch simples "repasting" wieder gute Temperaturen bekommt. Selbst wenn man Garantie auf der Karte hat ist würde ich es selbst machen (also nur bei ASUS), man hat ja zuletzt ohnehin desaströse Stories über ASUS gehört wie sie mit System die Kunden in der Garantieabwicklung verarschen und abzocken.

    Wenn du es selbst machst, würde ich mir vorallem den Abdruck auf der GPU mal genau angucken. Ansonsten gerne Bilder machen, damit wir das auch sehen. Daran kann man das mit etwas Erfahrung teilweise schon sehr deutlich sehen.
    [Bild: Main-x600.png]
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    Fortgeschrittenes Nice-to-know über modernen RAM - Warum sollte ich NVMe SSDs statt Festplatten benutzen?
    Nobbi Habogs ist offline Geändert von Nobbi Habogs (24.05.2024 um 20:57 Uhr)

  5. #145
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    20.431
    Ab einer Hotspot-Temperatur von 110°C taktet die GPU selbstständig herunter.
    Wenn der Takt unterhalb des Basistakt fällt (je nach genauem GraKa-Modell kann das ggü. der Vorgabe von AMD abweichen), dann reicht die Kühlung nicht aus.

    Dabei ist noch folgendes zu beachten: AMD hat seine GraKas so programmiert, das diese solange den Takt anheben, bis diese entweder ins Power- oder Temperaturlimit rennt.


    ASUS ist jedenfalls dafür bekannt, das sie bei AMD-Modelle Kühler verbauen die auf NVIDIA-Modelle optimiert sind. Dadurch ist die Kühlleistung auf den AMD-Karten schlechter als bei den NVIDIA-Modellen.
    Möglich dass das der Grund ist, weshalb die Differenz von GPU-Global und Hot Spot so groß ist.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  6. #146
    Bay Harbour Spammer Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    13.023
    Was muss man denn beim Wechseln der Wärmeleitpaste bei der Grafikkarte beachten? Ich habe nur normale Wärmeleitpaste da.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  7. #147
    Drachentöter Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    4.958
    Nicht zu wenig benutzen, da es sich hier um den blanken Chip handelt.
    Außerdem den Kühler auf dem Chip gleichmäßig anschrauben (überkreuzt), immer ca. 1 Schraubenumdrehungen und wechseln.
    Welche WLP benutzt du denn? Arctic MX-2 oder MX-4? Würde auf jeden Fall passen, es gibt keine spezielle WLP für GPUs falls du das meinst.
    Du kannst es ja auch einfach ausprobieren, nur wären wie gesagt Bilder nach der Demontage und vor dem Zusammenbau hilfreich, wenn du Feedback dazu haben willst.
    Hier sieht man schon, dass der Kontakt nicht (mehr) gut ist. Das liegt teilweise auch am Silikon, dass aus der vermutlich billigen Paste "ausgeblutet" ist. Ein anderes Beispiel für frische Paste sieht man hier, da ist meines Erachtes etwas zu viel aber das ist überhaupt nicht schlimm. Wirklich schlimm ist nur zu wenig, da die blanken Chips relativ empfindlich für Temperaturunterschiede sind. Würdest du nur eine Hälfte bedecken und die andere nicht, würde der Chip vermutlich nach sehr kurzer Zeit kaputt gehen und evtl. sogar brechen.

    Vielleicht magst du ja die "Fingermethode", einfach etwas Zewa bereithalten und die WLP mit einem Finger auf dem Chip verteilen. Wichtig ist, dass der ganze Chip bedeckt ist. Und etwas zu viel ist nicht schlim, drückt sich weg. Versuche ungefähr die Menge zu verwenden, bei der der Chip einen halben Millimeter dick bedeckt ist, muss es natürlich nicht mathematisch genau. Den Finger hebt man dann am besten aus dem Zentrum heraus ab, dort bildet sich dann ein kleiner Haufen oder Berg. So ist sichergestellt, dass sich die WLP von innen nach außen drückt, was zu viel ist gulpt dann halt raus. Stört aber überhaupt nicht.

    Manche benutzen einen beiliegenden, kleinen Spachtel oder alte Plastikkarte (Format: Schülerausweiß, Kreditkarte etc).

    Ich persönlich tupfe mit der Spitze der WLP-Spritze auf dem Chip herum, bis er bedeckt ist. Danach noch ein kleines bisschen in die Mitte, damit es sich eben kontrolloiert von Innen nach Außen drücken wird.
    [Bild: Main-x600.png]
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    Fortgeschrittenes Nice-to-know über modernen RAM - Warum sollte ich NVMe SSDs statt Festplatten benutzen?
    Nobbi Habogs ist offline Geändert von Nobbi Habogs (24.05.2024 um 02:06 Uhr)

  8. #148
    Deus
    Registriert seit
    May 2014
    Beiträge
    11.086
    Zitat Zitat von Nobbi Habogs Beitrag anzeigen
    Manche benutzen einen beiliegenden, kleinen Spachtel oder alte Plastikkarte (Format: Schülerausweiß, Kreditkarte etc).
    <-- Abgerissenes Stück Pappkarton als kleine Spachtel.
    Xarthor ist offline

  9. #149
    Bay Harbour Spammer Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    13.023
    Ich kann die Grafikkarte ausschließen.

    Es ist der Arbeitsspeicher oder die CPU+Mainboard. Heute hat sich der Computer beim Dayz spielen aufgehängt und dann startete er nicht mehr sondern fing an zu biepen. Ich habe dann die Arbeitsspeicher wieder gewechselt. Änderte nix. Meine alte 1050 Ti rein und die 6800 XT ausgebaut. Änderte nix. Die RAM-Riegel umgesteckt. Computer startete. XMP aktiviert. Computer startete nicht mehr. BIOS resettet. Computer startet ohne XMP.

    Ich schätze, die CPU oder das Mainboard hat einen Schuss.

    Oder die RAM-Steckplätze sind hinüber. Wenn ich alle vier RAM-Riegel einbaue ... dann beept er wieder und fährt nicht hoch.

    ÄRGERLICH!
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  10. #150
    Drachentöter Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    4.958
    Wenn es ohne XMP läuft, dann ist der RAM instabil (aka defekt) und schafft die vorgeschriebenen Taktraten nicht. Teste es einfach mal ohne XMP und überprüfe die Latenzen. Diese Probleme beim Starten kommen auch oft davon, dass versucht wird den Speicher mit automatischen Einstellungen anzusprechen, die er einfach nicht schafft. Entweder weil er defekt ist und es einfach nicht (mehr) schafft, die Settings falsch gelesen (buggy) oder falsch auf dem RAM hinterlegt sind.
    Hier siehst du meine Übersicht von HWiNFO64 (Portable Version):

    [Bild: 3Yzunbenannt.png]

    In der Mitte steht "Speicher" und darunter "Speichermodule". Bei Ersterem siehst du wie der Speicher tatsächlich läuft, also bei mir mit realen 1800 MHz und umgangssprachlich 3600 MHz mit beistehenden Latenzen (CL 18-22-22-42 / tRC 64 - tRFC 630 und Command Rate 1T). Es gibt noch mehr Latenzen, aber am wichtigsten sind die ersten 4, der Rest sind sog. "sub-latencys".
    Du gehst also ins BIOS und stellst die Taktrate und Spannung einfach manuell ein, anstatt sie automatisch vom Board erkennen zu lassen, da das manchmal auch nicht funktioniert oder falsche Profile im Speicher hinterlegt sind. Bei wäre es für 2133 MHz also das was bei "1067" steht: 15-15-15-35 und 1,200V. Sollten die Sublatenzen höher sein, lass sie einfach so. Das ist "entspannter" für den RAM. Das alles ist halt nötig, um den Fehler sicher eingrenzen zu können.

    Sollten damit IMMER NOCH Probleme auftreten, ist der RAM grundsätzlich defekt. Passiert das nur bei höheren Taktraten und schnelleren (schärferen) Latenzen, so ist die Güte des Produktes einfach zu schlecht. In beiden Fällen kann man von der Garantie Gebrauch machen. Um das ganze jedoch nachweisen zu könnten sollte man den Speicher testen z.B. mit Memtest86+. Einfach den dortigen USB-Installer herunterladen und auf einen verfügbaren USB Stick anwenden.
    Der Test geht auf Grund der hohen Leistungsfähigkeit der System relativ schnell, ich würde ihn jedoch mindestens 2h Stunden ausführen, besser 4h. Wenn vorher Fehler auftreten umso einfacher, Screenshot oder Foto machen und dann kann man sich das auch direkt schenken. Das Foto vom Fehler würde ich direkt mitschicken an den Händler bzw. Hersteller.
    [Bild: Main-x600.png]
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    Fortgeschrittenes Nice-to-know über modernen RAM - Warum sollte ich NVMe SSDs statt Festplatten benutzen?
    Nobbi Habogs ist offline Geändert von Nobbi Habogs (26.05.2024 um 06:25 Uhr)

  11. #151
    Bay Harbour Spammer Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    13.023
    Puh. Was soll ich sagen?

    Ich habe jetzt die Taktrate auf 2933 gestellt und die Werte manuell eingetragen. Ich habe jetzt natürlich die CL-Werte vom Corsair-Arbeitsspeicher genommen, weil die höher sind. Das könnte natürlich auch ein Problem darstellen. Warum habe ich jetzt 2933 gewählt? Mehr als 2933 unterstützt der 10700KF tatsächlich nicht. 3200 Mhz wird erst aber 11. Generation unterstützt. Ich habe den Arbeitsspeicher bei meinem Vater eingebaut. Dort läuft er problemlos und auch die 3200 nimmt er an.

    Endweder hat das Mainboard einen Schaden. Der Arbeitsspeicher oder der Speichercontroller der CPU hat einen Schaden, denn die 3200 sind ja eigentlich nur O.C.

    Was soll ich sagen? Ich danke Nobbi für seine Expertise. Ich merke jetzt auch keine Leistungseinbußen oder so.

    Dayz läuft normal. TESO läuft normal. Sind jetzt auch keine Spiele, die besonders leistungsintensiv sind. Aber auch Cyperpunk läuft mit 40 - 70 FPS aber das ist halt ... Raytracing. Da hätte ich mir ne nvidia kaufen müssen. Reicht halt für mich. Sobald das echte FSR3 integriert ist, wird das auch besser. Momentan nutze ich ja ... eine Mod dafür.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  12. #152
    Drachentöter Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    4.958
    Gerade bei den Intels macht die RAM Speed eh wenig Unterschied in der Praxis. Aber 3200 MHz ist jetzt auch echt nicht die Welt für den Speichercontroller, der wurde auch damals schon oft mit 3600er Kits gepaart. Vielleicht verändert das XMP Profil ja die Spannung nicht? Sollte es zwar, aber hab ich auch schonmal bei irgendnem ASUS Board gehabt, dass es das WARUM AUCH IMMER nicht tat. Da könnte ich mir gut vorstellen, dass das mit 1,2V nicht über 2933 MHz geht.
    Aber ich hätt an deiner Stelle jetzt auch nicht mehr groß Bock, wenn es jetzt läuft lass es so und gut ist.
    [Bild: Main-x600.png]
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    Fortgeschrittenes Nice-to-know über modernen RAM - Warum sollte ich NVMe SSDs statt Festplatten benutzen?
    Nobbi Habogs ist offline

  13. #153
    Deus Avatar von Morrich
    Registriert seit
    Feb 2013
    Ort
    Dresden
    Beiträge
    10.141
    Zitat Zitat von Nobbi Habogs Beitrag anzeigen
    Wobei... es wird leider immer normaler, dass sowohl AMD als auch Nvidia selbst bei teuersten Grafikkarten nicht in der Lage sind eine gute Kühlung sicherzustellen. Letztens das Video von Igor zur RTX 4080 von Manli gesehen, da wundert einen echt nix mehr.
    AMD/NVidia haben doch überhaupt nichts mit den letztendlichen Karten der einzelnen Hersteller zutun. Welche Kühllösungen die auf ihren Karten verbauen, schreiben die Chiphersteller denen doch nicht vor.
    An dieser Stelle liegt die Verantwortung für eine gute oder schlechte Kühlung bei den Kartenherstellern und nicht bei AMD/NVidia.
    Desktop: Nanoxia DeepSilence 1/ AMD Ryzen 7 5700X3D + Alpenföhn Brocken 4 Max / MSI MPG X570 Plus Gaming / Sapphire RX 9060 XT 16GB / 64 GB G.Skill FlareX 3200MHz / Sabrent Rocket NVMe 4.0 1TB / Lexar NM790 4TB / Crucial MX500 2TB / be quiet! Pure Power 12 M 650W
    Notebook: Lenovo Legion 5 / Ryzen 7 4800H / GTX 2060 6GB / 16GB DDR4 3200MHz / 2TB WD SN850X / 2TB WD SN550
    Morrich ist gerade online

  14. #154
    Bay Harbour Spammer Avatar von Almalexia
    Registriert seit
    Aug 2018
    Ort
    Gramfeste
    Beiträge
    13.023
    @Nobbi Habogs,

    Ich wollte hier nur einfach eine Rückmeldung geben. Ich werde natürlich nicht weiter herum experimentieren. Der Computer läuft und damit hat es sich.
    Eigentlich habe ich die Spannung auf 1.35V gestellt wie in HWinfo ausgegeben. Ich weiß es ehrlich nicht, was da wirklich kaputt ist. Ich weiß nicht, warum er die Werte nicht mehr automatisch ausliest. Eigentlich kann es nur das Mainboard sein oder die CPU, weil der Speichercontroller ja in der CPU sitzt.

    Ich habe den Speicher bei meinem Vater eingebaut und dort läuft er normal. Es kann auch sein, dass der Arbeitsspeicher nicht kompathibel zu einander ist, weil der G.Skill ist Double-Rank und der Corsair Single-Rank.

    G.Skill ist 16-18-18-36 und der Corsair ist 16-20-20-38.

    Ich habe mir den Corsair eigentlich nur gekauft, weil ich den G.Skill in RMA gegeben habe

    Dass bei Intel die Taktraten nicht so bedeutend sind, kann sein. Aber du kannst auch das Pech haben, eine K-CPU zu erwischen, die sich gar nicht übertakten lässt.

    Aber wie gesagt. Das Ding läuft wieder wie geschmiert.
    Reise einer Aschländerin | Tagebuch einer Hochelfin | Elfenherz
    Intel Core i7 10700KF@HR-2 Macho - Stock | Gigabyte Z590 Aorus Pro AX | Corsair 32GB Vengenance 3200 - G.Skill AEGIS 32GB DDR4-3200 = 64GB DDR4-3200 | ASUS AMD Radeon 6800 XT TUF Gaming OC+
    Samsung SSD 970 Evo Plus 1000GB@Windows 10 Pro | Crucial MX500 1TB | Hitachi HDS723020BLA642 2000GB | Hitachi HDS721075KLA330@Hot Plug 750GB | WDC WD40EZRZ 4000GB | WDC WD40EFZX 4000GB
    Seasonic FOCUS GX650 650W | Fractal Design Define 7 TGL | Externer DVD-Brenner | SATA-Wechselrahmen für 3.5 HDD | Windows 10 Pro
    Gaius Julius Caesar did nothing wrong!
    'Cause no one said that freedom's free

    Almalexia ist offline

  15. #155
    Drachentöter Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    4.958
    Zitat Zitat von Morrich Beitrag anzeigen
    AMD/NVidia haben doch überhaupt nichts mit den letztendlichen Karten der einzelnen Hersteller zutun. Welche Kühllösungen die auf ihren Karten verbauen, schreiben die Chiphersteller denen doch nicht vor.
    An dieser Stelle liegt die Verantwortung für eine gute oder schlechte Kühlung bei den Kartenherstellern und nicht bei AMD/NVidia.
    Meist ja, aber ich erinnere an AMDs Referenzdesign, dass vertikal gut funktionierte, horizontal verbaut aber nicht Und natürlich sollte ein Hersteller auch immer sicherstellen, dass da grundlegende technische Bedingungen erfüllt werden Nvidia macht doch eh tausend Vorgaben und Restriktionen was die wollen und was nicht, weshalb EVGA keinen Bock mehr darauf hatte, mal abgesehen vom monitären Aspekt.
    Zumal es wie gesagt auch die eigenen Karten betrifft, die über AMD.com oder Nvidia.com vertrieben werden. Da sind dann beide auch direkt für verantwortlich. Sollte aber auch so im Sinne des Unternehmens sein, die eigene Marke zu schützen und schlechte Qualität zu verhindern.

    Zitat Zitat von Almalexia Beitrag anzeigen
    @Nobbi Habogs,

    Ich wollte hier nur einfach eine Rückmeldung geben. Ich werde natürlich nicht weiter herum experimentieren.
    Aber wie gesagt. Das Ding läuft wieder wie geschmiert.
    Manchmal ist einfach der Wurm drin und es gibt viele mögliche Ursachen, auch wenn SR / DR und SS / DS tatsächlich sehr oft nicht gut miteinander funktionieren.
    Aber das es jetzt einfach läuft, ist doch die Hauptsache
    [Bild: Main-x600.png]
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    Fortgeschrittenes Nice-to-know über modernen RAM - Warum sollte ich NVMe SSDs statt Festplatten benutzen?
    Nobbi Habogs ist offline Geändert von Nobbi Habogs (30.05.2024 um 09:39 Uhr)

  16. #156
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    20.431
    Zitat Zitat von Nobbi Habogs Beitrag anzeigen
    Meist ja, aber ich erinnere an AMDs Referenzdesign, dass vertikal gut funktionierte, horizontal verbaut aber nicht
    Das war aber doch ein Produktions-, und kein Designfehler.

    Das einzige was man da vorwerfen kann, ist, das die Qualitätsprüfung unzureichend war. AMD hatte da ja eine Vorgabe gemacht, wie es sein sollte.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  17. #157
    Deus Avatar von Morrich
    Registriert seit
    Feb 2013
    Ort
    Dresden
    Beiträge
    10.141
    Zitat Zitat von Nobbi Habogs Beitrag anzeigen
    Meist ja, aber ich erinnere an AMDs Referenzdesign, dass vertikal gut funktionierte, horizontal verbaut aber nicht
    Beim Referenzdesign mag das zutreffen, aber bei den Karten der Boardpartner sind eben jene für die Kühlung verantwortlich.
    Die Referenzdesigns sind seit Jahr und Tag nicht der Oberknaller. Die sollen halt günstig sein.
    Das Thema mit dem vertikalen Verbauen bei AMD war lediglich ein Chargenfehler. Das war kein grundsätzlich verkehrtes Kühlerdesing.

    EVGA hatte keinen Bock mehr auf NVidia, weil Letztere einfach zuviel Kohle haben wollten für ihre Chips und sich die ganze Sache für EVGA daher nicht mehr gelohnt hat.
    Desktop: Nanoxia DeepSilence 1/ AMD Ryzen 7 5700X3D + Alpenföhn Brocken 4 Max / MSI MPG X570 Plus Gaming / Sapphire RX 9060 XT 16GB / 64 GB G.Skill FlareX 3200MHz / Sabrent Rocket NVMe 4.0 1TB / Lexar NM790 4TB / Crucial MX500 2TB / be quiet! Pure Power 12 M 650W
    Notebook: Lenovo Legion 5 / Ryzen 7 4800H / GTX 2060 6GB / 16GB DDR4 3200MHz / 2TB WD SN850X / 2TB WD SN550
    Morrich ist gerade online

  18. #158
    Ehrengarde
    Registriert seit
    May 2010
    Ort
    Nrw
    Beiträge
    2.508
    Meine AIO ist hinüber, nach 5 Jahren...

    Werd mir wohl ne neue kaufen wobei derzeit hab ich nen billigen Towerkühler installier habe, mal schauen
    Zankro ist offline Geändert von Zankro (04.06.2024 um 11:21 Uhr)

  19. #159
    Deus
    Registriert seit
    May 2014
    Beiträge
    11.086
    Ich will euch mal von meiner neusten Spielerei berichten. Angefangen hat alles mit einem unschuldigen "ich könnte ein FOSS-Spiel (freie Software) fürs Linuxhandy machen". Die Unreal Engine funktioniert in dem Fall nicht, vermutlich auch wegen den Systemanforderungen. Also griff ich zu Godot. Zuerst wollte ich mir die Engine anschauen. Alle Versionen crashten bis auf die aktuelle Beta. Gut, dachte ich mir, dann schaue ich mir halt die Beta an. Ich versuche dann herauszufinden, welche Grafik-API mein PPC (Pocket PC) unterstützt. Was finde ich heraus? OpenGL ES 3 wird von der Hardware unterstützt, OpenGL ES 2 vom Treiber. Yay, damit scheidet Godot 4 und darüber aus und abgesehen von der aktuellen Beta stürzten auch alle anderen direkt beim Start ab.

    Nun gut, bisschen recherchiert und einen 4 Jahre alten Kommentar gefunden, dass PC Neustart hilft - in der Tat, es half. Jetzt aber folgendes Problem: die aktuellste stabile 3er Version von Godot (3.5) kann nicht für die ARM-Architektur für Linux kompiliert werden, ohne die Engine selbst zu modifizieren. Aber die 2 letzten Betas (3.6 beta 4 und 5) haben es implementiert bekommen. So ein Glück, also arbeite ich halt mit einer unstable Beta. Testspiel ohne Inhalt gemacht, compiliert und ab dafür. Funktionierte auf meinem PPC out of the Box. Ich bin beeindruckt! Nichts kann mich mehr von Erstellen des Spiels abbringen. Oder...?

    Nunja, meine Nerven eventuell noch. Die Technik steht und funktioniert und ich weiß auch was ich meiner Hardware abverlangen kann um 30 FPS zu erhalten. Aber der Editor ist so unnötig kompliziert. Da ist man einfach von der UE4/5 verwöhnt. Aber gut, damit komme ich schon einigermaßen zurecht. Was mich aber so richtig stört ist nun Folgendes: Ich hasse klassische textbasierte Programmiersprachen (alleine schon wegen der Übersicht) und favorisiere daher Visual Scripting. Das Visual Scripting von Godot Version 4.2 (Plug-In, das Originale wurde nicht mehr weiterentwickelt) ist dem von der UE4/5 sehr ähnlich und funktioniert vermutlich ganz gut. Ich nutze aber Godot 3.6 mit dem alten originalen Visual Scripting. Ich habe ohne Witz eine halbe Stunde gebraucht um herauszufinden, wie man das blöde Spiel per Node beendet. Wenn etwas so unnötig kompliziert ist, weiß ich, warum die Leute lieber bei der normalen Programmierung bleiben. Wenn ich in Unreal 2 intuitive Schritte brauche um die Funktion zu implementieren, brauche ich bei Godot 6 Schritte. Die Node ist dabei erst ab Schritt 4 sichtbar (das was bei Unreal Engine Schritt 1 ist).

    FOSS hin oder her, das kann man doch echt niemanden anbieten... Irgendwie fühlt sich das alles an, als hätte ich gerade so die Möglichkeit irgendwie ein Spiel zu kreieren. Genug Glück, dass die Technik nutzbar ist, aber genug Pech, dass ich mich mit der Software quälen darf.
    Xarthor ist offline

  20. #160
    Pretty Pink Pony Princess  Avatar von Multithread
    Registriert seit
    Jun 2010
    Ort
    Crystal Empire
    Beiträge
    11.344
    Es hat schon nen grund, wieso das Visual Scripting in Godot 4 wieder entfernt wurde. Neben der eher mauen Qualität, wurde es auch fast nicht genutzt.

    Ich empfehle dir, lerne GD-Script und Programmiere das Spiel damit. Das dürfte einfacher und lehrreicher sein als Visual Scripting.
    Und es ermöglicht es dir, später die Engine Version auf eine neuere zu wechseln.
    [Bild: AMD_Threadripper.png] Bei Hardware gibt es keine eigene Meinung, bei Hardware zählen nur die Fakten.


    Probleme mit der Haarpracht? Starres Haar ohne Glanz? TressFX schafft Abhilfe. Ja, TressFX verhilft auch Ihnen zu schönem und Geschmeidigen Haar.
    [Bild: i6tfHoa3ooSEraFH63.png]
    Multithread ist gerade online

Seite 8 von 21 « Erste ... 4567891011121519 ... Letzte »

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •