Seite 1 von 2 12 Letzte »
Ergebnis 1 bis 20 von 27

"Einfacherer" PC mit dicker CPU für gute iGPU?

  1. #1 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Aloha,

    ich wollte ja eigentlich einen Gamingrechner Anfang nächstes Jahres kaufen, aber ich habe ja den Cloud-Gaming-PC-Service von shadow.tech. Letztere haben die Preise nun mehr als halbiert ab Februar 2020, so dass man einen angenehm guten Gaming-PC für wenig Geld kriegt. Ich muss also nicht mehr viel investieren fürs Gaming, aber mein aktueller PC gibt trotzdem den Geist auf.
    Ich bräuchte also nur noch ein Gerät (Linux als OS) für Office-Sachen mit gewisser Hardwarebeschleunigung, die die Verbindung zum Shadow packt. Ich dachte an SBCs, aber die gibts meist nur auf ARM und darauf hab ich wenig Lust; x86 SBCs oder Barebones sind meist mit Intel, aber ich bin AMD-Fanboy; gleichzeitiges Anschließen an den TV für Kodi (4K HDR x265) wäre auch praktisch.
    Bei den Barebones geht es ziemlich weit auseinander was Preis und Leistung angeht, so dass ich einfach nicht weiß, ob auch die billigsten Geräte reichen würden und selbst die können teilweise kein HDR (die N- und J-CPUs von Intel).
    Also dachte ich an ein klassisches Mini-ATX mit nem ordentlichen Ryzen, der eine iGPU mitbringt. Dazu Motherboard, Netzteil und RAM neu und gut ist.
    Macht das Sinn? Kennt ihr Alternativen?
    Spontan habe ich leider auch keine Ahnung wie stark die integrierten Vega-Sachen in den Ryzen-CPUs sind.
    Professor Hunt ist offline

  2. #2 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.597
    Bis Intel nächstes Jahr ihre auf Xe-Basierende iGPUs auf den Markt bringt, hat AMD auf jeden Fall die stärkeren iGPUs.
    So wie ich deine Leistungsanforderung verstanden habe, braucht es aber gar keine gute iGPU, nicht mal eine starke CPU.

    AMDs günstigste Lösung, wäre ein Athlon 200GE. Die sollten meines Wissens auch h.265 unterstützen. Falls du mehr als einen Bildschirm anschließen willst, musst du genau schauen welche Anschlüsse verfügbar sind (am Mainboard und Bildschirm). Die Mainboards sind da nämlich in der Regel nicht sehr üppig ausgestattet.

    Welche Leistungsfordernde Dinge würden denn anfallen? Idealerweise nennst du die Software die du dafür einsetzen willst.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  3. #3 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.064
    Grundsätzlich muss man natürlich bei dem Cloud-Gelumpe immer bedenken, dass man sich abhängig macht. Noch mehr als beispielsweise bei DRM. Vor kurzem hätte z.B. Adobe beinahe ihre Creative Cloud für alle Kunden in Venezuela abgeschaltet, weil Trump mal wieder einen Gehirnfurz abgelassen hat. Hätte eigentlich ein Weckruf sein müssen für alle, die sowas benutzen. Aber natürlich schlafen die lieber weiter.

    Ansonsten gilt halt im Allgemeinen: Je kleiner die Kiste, desto schlechter wartbar und desto teurer. Ein stinknormales MiniATX-Gehäuse mit Standardbauteilen ist i.d.R. bei gleich Ausstattung günstiger, einfacher zu warten und eher nachträglich aufrüstbar. Individuelle Ausnahmen mag es aber geben. Musst du wissen, ob der Schnuckelfaktor dir das wert ist.

    Wenn’s doch eine ARM-CPU sein darf: Für ~80-100 Euro gibt’s einen Raspi 4 mit 4 GB RAM, Kühlkörper, SD-Karte, Gehäuse und Netzteil. Hinter den Monitor geschraubt, fertig ist ein supergünstiger Arbeitsplatz, der für einfachste Office- und Internetanwendungen ausreicht. An der Dekodersoftware für Multimedia wird IIRC aktuell noch gebastelt. Einiges geht schon, anderes noch nicht. Also muss man gucken, ob da alles unterstützt wird, was man braucht. Und ob der Shadow Client da überhaupt drauf läuft. Aber günstiger und platzsparender geht’s wirklich nicht mehr.

    Was sind eigentlich die Systemanforderungen für dieses Shadowgelumpe? Ich war auf deren Homepage, habe aber auf die Schnelle nix gefunden und keinen Bock, da jetzt stundenlang zu suchen. Normalerweise wird das doch alles gestreamt, also würde man, außer einem Dekoder für den Videostrom (vermutlich H.265) nix weiter brauchen?

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist offline

  4. #4 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Oh Jesus Christ, ich bin echt down the rabbit hole als ich gerade versucht habe hier meine TV- und CPU-Spezifikationen zu recherchieren und zu finden, also jetzt andersrum:


    Ich hätte gern ein kleineres Gerät (kleiner als ein Tower), das mit 4 Kernen arbeitet. Ich weiß, dass ich nicht unbedingt super viel Power brauche, aber ich will auch nicht wirklich warten beim Kompilieren oder Konvertieren oder sonstiger Arbeit - ich bin da einfach zu ungeduldig, obwohl ich diese Arbeiten kaum mache. Dieses Gerät soll primär zum Browsen dienen (1440p) und ich denke, dass man da mittlerweile auch schon ein paar Ressourcen haben muss, weil das Internet leider mittlerweile mehr Ressourcen frisst, als man denkt. Nebenbei soll das Gerät als DLNA-Renderer funktionieren, wenn mein TV manche Sachen vom NAS nicht einfach selbst schluckt. Leider hat mein TV zwar HDR-Unterstützung, aber die verbauten HDMI-Schnittstelle (Version 2.0) anscheinend nicht, d.h. entweder versteht der TV eigenständig über meinen NAS (DLNA-Server) das Video und stellt es mit HDR dar oder ich muss es ihm füttern über einen DLNA-Renderer - für 4K mit HDR. Das heißt letztlich, dass da schon ein bisschen Power hinter der CPU stecken muss bzw. dedizierte Hardware, die das bewältigt.

    In der Liste der Ryzen Prozessoren hatte ich gesehen mit Ryzen 3 und Ryzen 5 Quadcores, die Vega 8 bzw. Vega 11 beherrschen. Ich weiß aber leider nicht, welche Spezifikationen das genau sind in den Vega-GPUs und müsste da nochmal recherchieren.

    Dazu 4? GB RAM und fertig wäre ein Linux zum Surfen.


    @foobar

    Das mit der Cloud ist mir klar, aber es sind halt 13 Euro im Monat für ein virtuelles Win10 mit guten Specs und ich habe dort nur Steam oder GOG und einen kleinen Browser. Keine Privatsachen, kein Passwortmanager, ich bin noch nichtmal dauerhaft eingeloggt in den Spiele-Clients. Ich spiele nicht mehr so viel und mit dem Kauf des 1440p-Monitors läuft Shadow nur noch unter Linux und nicht unter Win7, weil meine derzeitige GPU so alt ist, dass sie unter Windows (wegen irgendwelchen besonderen Spezifikationsversionen und fehlendem x265) kein Shadow über 1080p darstellen kann. Also bleib ich dauerhaft auf Linux und es läuft mehr oder minder. Ich glaube nicht, dass die zwischendurch den Dienst schließen bzw. so viel zocke ich nicht und so tragisch wäre es nicht für mich.

    Übrigens hasse ich Raspberries ^^"
    Ich find die überhypt, weil andere Sachen viel geiler sind. Mein NAS ist ein Odroid HC2, Odroid bietet auch ein recht interessantes x86 Board, aber das ist ein Intel 2-Kerner, wo ich nicht weiß, ob dem nicht die Puste ausgeht (siehe unten).
    Auf ARM Basis möchte ich nichts haben, weil ich ein Linux-Noob bin und ich denke, dass ich mit nem Debian-basierten x86 OS am sicherste fahre. Außerdem gibts kein ARM für Shadow - dafür verkaufen sie eine extra Hardware für teuer Geld. Die würde man dann wegwerfen müssen, wenn der Dienst dicht macht..daher hab ich darauf keinen Bock und möchte unabhängig bleiben.

    ich habe nur die Systemvorraussetzungen für Windows für Shadow gefunden:

    Minimale Konfiguration:

    Betriebssystem: Windows 7, 8.1, 10
    Prozessor: INTEL (Sandy Bridge range (2011)): Core i7, Core i5, Core i3, Pentium, Celeron, Xeon 1.60Ghz
    AMD (AM2 + range (2008)): Athlon, Sempron, Phenom, Opteron
    RAM : 2 GB of RAM
    Shader Version 2.0 kompatible Grafikkarte, directX 9.0c oder höher ( Nvidia , ATI / AMD )
    Empfohlene Konfiguration:

    Betriebssystem: Windows 7, 8.1, 10
    Prozessor: INTEL (Skylake range (2015)): Core i7, Core i5, Core i3, Pentium, Celeron, Xeon 2.6Ghz
    AMD (AM2 + range (2012)): Athlon II, FX, Phenom II, Opteron
    RAM : 4 GB of RAM
    Shader Version 3.0 kompatible Grafikkarte, directX 11 oder höher( Nvidia , ATI / AMD )


    Was mich reizen würde:

    https://www.hardkernel.com/shop/odroid-h2/

    Ich versteh nur leider nicht, wie das funktioniert mit dem HDR. In der CPU ist HDR deaktiviert, aber die GPU soll das angeblich können. Ich weiß auch nicht, ob das Gerät nicht zu schwachbrüstig ist für den Alltag. Klitzekleiner Vorteil wäre aber der 2. Ethernet-Port, den man für den TV nehmen könnte.
    Professor Hunt ist offline

  5. #5 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.064
    Zitat Zitat von Professor Hunt Beitrag anzeigen
    Übrigens hasse ich Raspberries ^^"
    Ich find die überhypt, weil andere Sachen viel geiler sind. Mein NAS ist ein Odroid HC2
    Also zunächst mal hat die Foundation mit dem Pi4 tatsächlich stark aufgeholt. Zwar ist man immer noch nicht dem Feature-Creep erlegen, aber fast alle Punkte, an denen die Vorgänger krankten (RAM, USB 3.0, Gbit-Ethernet, 4K-Support), hat man inzwischen behoben. Je nachdem, welche Metrik man anwendet, könnte man sogar argumentieren, dass die Alternativen kaum noch eine Existenzberechtigung haben.

    Davon abgesehen haben die Raspis aber auch einen enormen Vorteil gegenüber anderen Einplatinenrechnern mit ARM-Kernen. Selbst, wenn letztere vielleicht auf dem Papier die besseren Specs haben. Und das ist der Software-Support. Bei den Konkurrenten läuft das häufig so, dass die dort verwendeten SoCs (System-on-Chip) mit all den tollen Features speziell angepasste Linux-Kernel mit proprietären Treibern brauchen, um zu funktionieren. Da nimmt der Board-Hersteller dann einen Kernel vom SoC-Hersteller, den dieser eigentlich für Android gedacht hatte, bastelt ein paar weitere proprietäre Treiber gerade so weit hinein, dass sie funktionieren und macht daraus dann seine eigene Linux-Distribution, die i.d.R. keine weiteren Updates mehr kriegt und nicht weiter gepflegt wird. Da gibt’s halt diesen einen Frankenstein-Kernel und wenn in dem Sicherheitslücken gefunden werden, kann man das Gerät vom Netz nehmen.

    Mit SoCs, deren Treiber als Open Source im Vanilla-Linux-Kernel stecken, hätte man das Problem nicht. Die würden praktisch mit jeder verfügbaren Distri für die entsprechende Architektur funktionieren. Aber solche SoCs gibt es praktisch gar nicht auf dem Markt. Die Raspberry-Foundation bemüht sich aktiv darum, quelloffene Treiber für alle ihre Komponenten zu entwickeln und in den offiziellen Kernel einzupflegen. Ein paar Sachen fehlen AFAIK noch, aber das meiste hat man inzwischen geschafft. Bis es soweit ist, pflegen sie ihre eigene angepasste Distri ordentlich. Das aktuelle Raspbian Buster läuft selbst auf dem allerersten Pi1 von vor sieben Jahren noch ohne Mucken.

    Außerdem ist der Pi ein Quasi-Standard, also findet man dafür im Zweifel am ehesten Anleitungen, Erweiterungen und Beispiele, wenn man ein konkretes Problem lösen will.

    Natürlich sollte man nie blind zu einem Produkt greifen und immer evaluieren, was in einem konkreten Anwendungsszenario am Sinnvollsten ist. Aber in weiten Teilen ist der vermeintliche „Hype” auch berechtigt.

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist offline

  6. #6 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.597
    Wird bei DLNA Rendering wirklich etwas gerendert? Ist das nicht nur ein Stream? Dann braucht der DLNA "Server" nur ein entsprechenden HW-Decoder der den abzuspielenden Codec unterstützt.
    Die Zen-basierten APUs (alle Ryzen mit iGPU und Athlon 2x0GE-Reihe) können H.264 (MPEG-4 AVC), H.265 (HEVC) sowohl decodieren als auch encodieren.
    H.262, MPEG-4 und VP9 können nur decodiert werden. Weitere Codecs müssen dann aufwändig von der CPU berechnet werden.

    Für Shadow sollte ebenfalls alles ab einem Athlon 200GE reichen.


    Zum TV und HDR über HDMI: Es soll wohl einige TV-Geräte geben, bei denen man dies explizit für den jeweiligen Eingang am TV aktivieren muss. Falls du das übersehen hast, mal nachschauen obs auch auf deinen TV zutrifft.
    Bis HDMI 2.0(b), geht HDR (10Bit Farbkanal) auch nur per Farbunterabtastung, zumindest bei 60+ FPS/Hz. Auch braucht man ein passendes Kabel, nicht jedes HDMI-Kabel macht das mit.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  7. #7 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Zitat Zitat von foobar Beitrag anzeigen
    Also zunächst mal hat die Foundation mit dem Pi4 tatsächlich stark aufgeholt. Zwar ist man immer noch nicht dem Feature-Creep erlegen, aber fast alle Punkte, an denen die Vorgänger krankten (RAM, USB 3.0, Gbit-Ethernet, 4K-Support), hat man inzwischen behoben. Je nachdem, welche Metrik man anwendet, könnte man sogar argumentieren, dass die Alternativen kaum noch eine Existenzberechtigung haben.

    Davon abgesehen haben die Raspis aber auch einen enormen Vorteil gegenüber anderen Einplatinenrechnern mit ARM-Kernen. Selbst, wenn letztere vielleicht auf dem Papier die besseren Specs haben. Und das ist der Software-Support. Bei den Konkurrenten läuft das häufig so, dass die dort verwendeten SoCs (System-on-Chip) mit all den tollen Features speziell angepasste Linux-Kernel mit proprietären Treibern brauchen, um zu funktionieren. Da nimmt der Board-Hersteller dann einen Kernel vom SoC-Hersteller, den dieser eigentlich für Android gedacht hatte, bastelt ein paar weitere proprietäre Treiber gerade so weit hinein, dass sie funktionieren und macht daraus dann seine eigene Linux-Distribution, die i.d.R. keine weiteren Updates mehr kriegt und nicht weiter gepflegt wird. Da gibt’s halt diesen einen Frankenstein-Kernel und wenn in dem Sicherheitslücken gefunden werden, kann man das Gerät vom Netz nehmen.

    Mit SoCs, deren Treiber als Open Source im Vanilla-Linux-Kernel stecken, hätte man das Problem nicht. Die würden praktisch mit jeder verfügbaren Distri für die entsprechende Architektur funktionieren. Aber solche SoCs gibt es praktisch gar nicht auf dem Markt. Die Raspberry-Foundation bemüht sich aktiv darum, quelloffene Treiber für alle ihre Komponenten zu entwickeln und in den offiziellen Kernel einzupflegen. Ein paar Sachen fehlen AFAIK noch, aber das meiste hat man inzwischen geschafft. Bis es soweit ist, pflegen sie ihre eigene angepasste Distri ordentlich. Das aktuelle Raspbian Buster läuft selbst auf dem allerersten Pi1 von vor sieben Jahren noch ohne Mucken.

    Außerdem ist der Pi ein Quasi-Standard, also findet man dafür im Zweifel am ehesten Anleitungen, Erweiterungen und Beispiele, wenn man ein konkretes Problem lösen will.

    Natürlich sollte man nie blind zu einem Produkt greifen und immer evaluieren, was in einem konkreten Anwendungsszenario am Sinnvollsten ist. Aber in weiten Teilen ist der vermeintliche „Hype” auch berechtigt.
    Naja, so ganz nachvollziehen kann ich deine Argumente nicht.
    Ja, der Raspberries haben das marktfähig und erschwinglich gemacht, aber da sind teilweise die gleichen CPUs drin wie in anderen SBCs, man hatte lange Zeit gewisse Designfehler durchgeschleift, die anderswo besser gemacht wurden und Raspbian wird auch empfohlen. Das ist auch nichts weiter als eine angepasste Variante (die wohl zugegebenermaßen offener ist). Es gab wohl bei den RockPro-Sachen von Pine64 ein paar unschöne Sachen hinsichtlich fehlender Treiber (weil nicht offen), aber ich sehe grundsätzlich bei anderen SBCs viele Standard-Distributionen oder sogar auf LTS-getrimmte Sachen. Ich finde das greift alles schon massiv Wasser ab von den Raspberries.
    Auf meinem NAS läuft ein Armbian mit Anpassungen für OpenmediaVault und den HC2 an sich - auch das Originalimage würde aber laufen. Ich sehe daher persönlich eher weniger Probleme mit dem einzelnen SBC, sondern eher mit ARM an sich, weil es nichts für mich ist im Desktopgebrauch.

    Zitat Zitat von Homerclon Beitrag anzeigen
    Wird bei DLNA Rendering wirklich etwas gerendert? Ist das nicht nur ein Stream? Dann braucht der DLNA "Server" nur ein entsprechenden HW-Decoder der den abzuspielenden Codec unterstützt.
    Jein. Es gibt Server, Renderer und Client anscheinend. Wobei die Smart-TVs Clients und Renderer in einem sind. Du könntest ja auch einen Blurayplayer haben, der vom Server die Sachen holt und auf dem TV wiedergibt, d.h. er rendert und der TV gibt wieder. Finde ich etwas blöd gemacht, aber anscheinend sind die Protokolle so, damit du auch abweichend vom Originalmedium andere Grafikeinstellungen haben kannst. Ich glaub das ist so gedacht wie bei Plex, der dir das ggf. für dein Handy schon passend runterrechnet.

    Die Zen-basierten APUs (alle Ryzen mit iGPU und Athlon 2x0GE-Reihe) können H.264 (MPEG-4 AVC), H.265 (HEVC) sowohl decodieren als auch encodieren.
    H.262, MPEG-4 und VP9 können nur decodiert werden. Weitere Codecs müssen dann aufwändig von der CPU berechnet werden.
    Wie aufwendig sind die Sachen, die über Software-De/Encoding gemacht werden würden?
    Klar kommt das jetzt auf die Bitrate und Auflösung und etc an, aber würde ein Quadcore Ryzen das on the fly schaffen? ist das realistisch?

    Zum TV und HDR über HDMI: Es soll wohl einige TV-Geräte geben, bei denen man dies explizit für den jeweiligen Eingang am TV aktivieren muss. Falls du das übersehen hast, mal nachschauen obs auch auf deinen TV zutrifft.
    Bis HDMI 2.0(b), geht HDR (10Bit Farbkanal) auch nur per Farbunterabtastung, zumindest bei 60+ FPS/Hz. Auch braucht man ein passendes Kabel, nicht jedes HDMI-Kabel macht das mit.
    Ich habe ehrlich gesagt keine offizielle Anleitung gefunden, die mir bestätigt, dass mein LG UJ634V HDMI 2.0 kann. Das stand irgendwo im Internet, aber in den offiziellen Beschreibungen steht nichts von der eigentlichen Version. 2.0 (ohne a oder b) kann anscheinend offiziell auch kein HDR, der TV aber schon. Das hat mich gewundert bis mir einfiel, dass ich bisher HDR über DLNA gemacht habe und der TV das eigentliche Bild selber renderte, weil er es übers LAN-Kabel vom NAS bekam.
    Daher kenn ich jetzt eh davon aus, dass ich nur über DLNA HDR auf den LG kriege. Ich versuchs mal morgen zu testen mit meinem Win10-Laptop. Da kann man glaub ich HDR aktivieren und sehen, ob auch angeschlossene Monitore das können.

    Für Shadow sollte ebenfalls alles ab einem Athlon 200GE reichen.
    Ihr gönnt mir aber auch keinen Ryzen, oder?
    Der Ryzen 3 (Pro) 2200GE ist ein Quad, hat aber die gleiche TDP (35W) wie der Athlon. Ich fühle mich einfach nicht wirklich gut mit einem reinen Dualcore (obwohl ich natürlich weiß, dass die Effizienz pro Takt auch gestiegen ist, aber Dualcore klingt so oldschool).
    Professor Hunt ist offline

  8. #8 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.597
    Zitat Zitat von Professor Hunt Beitrag anzeigen
    Wie aufwendig sind die Sachen, die über Software-De/Encoding gemacht werden würden?
    Klar kommt das jetzt auf die Bitrate und Auflösung und etc an, aber würde ein Quadcore Ryzen das on the fly schaffen? ist das realistisch?
    Kommt auf den Codec an. Die genannten sind aber bereits die gängigsten Codecs. Da nicht unterstützte Codecs eben unüblich sind, liegen mir da auch keine Erfahrungswerte vor.

    Aber mal ein Beispiel anhand von H.265/HEVC:
    Mein Bruder hatte mit H.265 (was üblicherweise nur für UHD und höher verwendet wird) Probleme, weil seine GraKa das nicht unterstützte. Und er hatte sogar einen Hexa-Core mit SMT (i7-8700).


    Ich habe ehrlich gesagt keine offizielle Anleitung gefunden, die mir bestätigt, dass mein LG UJ634V HDMI 2.0 kann. Das stand irgendwo im Internet, aber in den offiziellen Beschreibungen steht nichts von der eigentlichen Version. 2.0 (ohne a oder b) kann anscheinend offiziell auch kein HDR, der TV aber schon. Das hat mich gewundert bis mir einfiel, dass ich bisher HDR über DLNA gemacht habe und der TV das eigentliche Bild selber renderte, weil er es übers LAN-Kabel vom NAS bekam.
    Daher kenn ich jetzt eh davon aus, dass ich nur über DLNA HDR auf den LG kriege. Ich versuchs mal morgen zu testen mit meinem Win10-Laptop. Da kann man glaub ich HDR aktivieren und sehen, ob auch angeschlossene Monitore das können.
    Scheinbar steht bei diesem TV nicht an jedem HDMI-Port HDR zur Verfügung.
    Aus dem Handbuch:
    Wenn das über Eingang angeschlossene Gerät ULTRA HD Deep
    Colour unterstützt, erhalten Sie unter Umständen ein besseres
    Bild. Unterstützt das Gerät die Technologie nicht, funktioniert es
    möglicherweise nicht ordnungsgemäß. Schließen Sie das Gerät in
    diesem Fall an einen anderen HDMI-Anschluss an, oder Aus Sie die
    Einstellung ‚ HDMI ULTRA HD Deep Colour für Ihr TV-Gerät.
    Quelle: lg.com
    Leider geht daraus nicht hervor, welcher der Anschlüsse das ist, und da das Modell bereits EOL ist, sind die Daten auf LG.com sowieso nur noch recht spärlich.
    Aber vlt. hilft ja auch ein Software-Update? Im Mai gabs nochmal eines für dieses Modell.

    Es erfordert zudem mind. ein "High-Speed-HDMI-Kabel", ein "Standard-HDMI-Kabel" ist unzureichend.


    Ihr gönnt mir aber auch keinen Ryzen, oder?
    Der Ryzen 3 (Pro) 2200GE ist ein Quad, hat aber die gleiche TDP (35W) wie der Athlon. Ich fühle mich einfach nicht wirklich gut mit einem reinen Dualcore (obwohl ich natürlich weiß, dass die Effizienz pro Takt auch gestiegen ist, aber Dualcore klingt so oldschool).
    An den Ryzen (Pro) 2x00 GE hab ich gar nicht gedacht. Ich/wir denken halt an deinen Geldbeutel. ^^
    Sowohl die Pro's, als auch die Ryzen GEs gibts nur als Tray-Version (den Pro 2200GE hab ich einzeln nicht mal gefunden), also ohne Garantie von AMD sowie ohne Boxed-Kühler.
    Ein reiner Dualcore wäre der Athlon gar nicht, der beherrscht SMT, bietet also 4 Threads.
    Die Pros bieten eh kein Feature, das für deinen Zweck einen Vorteil bieten würde.

    Man kann die Ryzen in ihrer Leistungsaufnahme auch per BIOS manuell beschränken. Die 65W-Modelle kann man auf 46W limitieren. Sind dann natürlich etwas langsamer.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  9. #9 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.064
    Zitat Zitat von Professor Hunt Beitrag anzeigen
    aber da sind teilweise die gleichen CPUs drin wie in anderen SBCs
    Du kannst die ARM-Welt nicht mit x86 vergleichen. Die Firma ARM stellt ja keine eigenen CPUs her. Vielmehr entwickeln sie nur die IP (Intellectual Property), quasi die Baupläne. Die lizenzieren sie dann an Firmen, die damit tatsächlich eigene Prozessoren machen wollen. Manche dieser Lizenzen erlauben es dem Lizenznehmer, die Baupläne an die eigenen Bedürfnisse anzupassen. Andere kombinieren unterschiedliche modulare Funktionseinheiten zu einem SoC. Wie bei Lego. Dann kommen evtl. noch andere Module von anderen Anbietern dazu und wie das alles intern miteinander verschaltet wird, bleibt den Herstellern auch mehr oder weniger selbst überlassen.

    Nur weil da überall ein Cortex A-Hastenetgesehn oder was auch immer drin steckt, heißt das nicht, dass die 100%ig softwarekompatibel zueinander sind. Guck dir Smartphones an. Da gibt’s genau das gleiche Problem. Ja, überall läuft Android drauf und es sind alles ARM-CPUs. Aber das Android, das Google im Labor entwickelt, läuft zunächst erst mal auf keinem Smartphone der Welt. Jeder Hersteller muss erstmal für sich hergehen und den Code an die Hardware jedes einzelnen Geräts anpassen. Das ist einer der Faktoren, die bewirken, dass Google zwar fleißig Updates rausbringt, die aber bei den Usern auf dem Smartphone wenn überhaupt, dann nur stark verzögert, ankommen.

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist offline

  10. #10 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Okay Kinners, Hund ist jetzt auf der Wiese und ich versuche mobil etwas runterzuschreiben. Ich halte es kürzer une vllt sieht man deswegen meine Enttäuschung nicht so. Habe vorhin nochmal gegoogelt und war nicht einverstanden mit den Ergebnissen :/

    x265 kann meine alte GPU auch nicht und Shadow unterstützt das zwar, aber ich kriege es halt so nicht zum Laufen. Da du aber anscheinend wirklich exotische Codecs meinst, scheint es wohl kein Problem sein, weil die Hauptcodecs wohl unterstützt werden. Das sollte reichen.

    Danke für den Hinweis zu meinem Fernseher. Hatte jetzt nur nach HDMI Versionen gesucht und nichts gefunden. Ein Highspeed Kabel sollte ich haben und dann probier ich nachher mal mein Arbeitslaptop drsnzukriegen.
    Schade, der TV ist gerade mal 2 Jahre alt und schon EOL... Ich hab die Updates gemacht, aber wenn man sich die Changelogs anschaut, kamen da eh nur noch Bugfixes und nix besonderes mehr.

    CPU:
    Ich dächte ich hätte vorhin auf Geizhals boxed Varianten gesehen. Und das ist auch die tolle Überleitung zu meinem Ärgernis heute morgen. Ich habe mir CPUs, Mainboards und Co rausgesucht und musste feststellen, dass viele billige AM4 Boards gar nicht die passenden Grafikanschlüsse haben (Anzahl, Typ, Version). Ich bräuchte wohl 2x HDMI 2.0 oder wenigstens eins davon und DP1.2. Das finde ich erst bei einem 120 Euro Motherboard :/

    Ich schaue die ganze Zeit nach Möglichkeiten mit Barebones, Mainboards mit SoC, SBC, fertige Mini-PCs, schwache CPU und irgendeine kleine GPU dazu, aber irgendwie wirds immer teuer bzw ich muss einfach Abstriche machen. Es tut mir leid, dass ich hier eure Zeit damit verschwende, aber ich glaube letztlich sollte wohl einfach nur meine GPUs austauschen gegen irgendetwas kleines, was von sich aus HDR und Freesync 2 kann. Das schließe ich an beide Displays an und es streamt ruhig den Shadow oder mal einen Film. Dann ist mein Mainboard weiterhin kaputt, aber ich mag gar nicht so viel Geld ausgeben, würde mehr Elektroschrott erzeugen und Dinge nicht mehr benutzen, die eigentlich noch ganz okay sind.
    Professor Hunt ist offline

  11. #11 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Es hatte angefangen zu regnen und ich wollte nach Hause und habe mich jetzt mit HDR und dem TV auseinandergesetzt.

    @foobar

    Vielen Dank für diese Einblicke. Ich hatte mir das eher so vorgestellt, dass man entweder beim Hersteller Bauteil xyz einfach bestellt und verbaut und selber schauen muss, wie man die Treiber macht oder man geht offizielle Partnerschaften ein, bezieht die Hardware und kriegt auch die nötigen Treiberinformationen, damit man das Produkt auch voll ausreizen kann und der Hersteller dann gut dasteht deswegen.
    Eine Frage zu Android: Wie genau läuft das denn? Ich hab mir das immer so vorgestellt, dass man natürlich Anpassungen machen muss, weil man einen anderen Chipsatz,Funkmodule etc verwendet oder weil man seinen Bootvorgang oder seine Apps optimieren will und es auch eigentlich ohne diese Anpassungen laufen würde - nur dann halt wenig optimiert und ohne Unterstützung für z.B. den GPS-Chip. Zudem hatte ich auch gehört es liegt daran, dass - jetzt begeb ich mich aufs Glatteis - Android erst vor kurzem eine Abstraktionsschicht eingeführt hat, so wie es Microsoft macht. Denn bei Windows kann man auch einfach Updates fahren ohne auf die neuen Treiber der jeweiligen Systemkomponenten warten zu müssen.

    @Homerclon
    LG, HDR, Windows 10, Nvidia, Laptop-GPU ist ein Clusterfuck deluxe.
    Ich habe es nicht zum Laufen bekommen. Frust, Frust, Frust...
    ich lass es einfach und der LG soll sich weiterhin übers DLNA die Medieninhalte holen und er kann HDR selbstständig erkennen (da kommt son kleines Symbol in der Ecke)

    Aktueller Stand:
    wie oben schon angedeutet:
    neue, kleine GPU und neue Lüfter, so dass ich zwar weiterhin einen Tower mit doofen Mainboard benutze, aber er sehr leise ist, ich noch ein bisschen was aus dem alten i5 raushole und ich beide Monitore ansteuer.
    Denkt ihr das ist sinnig? Ich müsste nicht viel Geld ausgeben, meine aktuelle Hardware wird nicht plötzlich Schrott und ich kann es einfach so weiterbetreiben bis wirklich alles den Geist aufgibt.
    (dann wäre wohl eine RX570 mein Favorit).
    Professor Hunt ist offline

  12. #12 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.064
    Zitat Zitat von Professor Hunt Beitrag anzeigen
    Eine Frage zu Android: Wie genau läuft das denn? Ich hab mir das immer so vorgestellt, dass man natürlich Anpassungen machen muss, weil man einen anderen Chipsatz,Funkmodule etc verwendet oder weil man seinen Bootvorgang oder seine Apps optimieren will und es auch eigentlich ohne diese Anpassungen laufen würde - nur dann halt wenig optimiert und ohne Unterstützung für z.B. den GPS-Chip.
    Allgemein ist es so, dass ARM-CPUs immer auf einen speziellen Anwendungszweck zugeschnitten werden. Macht ja schließlich einen Unterschied, ob der Chip später in einem NAS oder einem Fernseher stecken soll. Der Fernseher braucht vielleicht jede Menge Hardwaredekoder für H.265, H.264, MPEG und so weiter. Bei einem reinrassigen NAS kann man sich die Dekoder und die damit verbundenen Lizenz- und Entwicklungskosten evtl. sparen. Da sind vielleicht eher Krypto-Einheiten für Laufwerksverschlüsselung sinnvoll. Und entsprechend brauchen die dann unterschiedliche Treiber, um ihren Job machen zu können. Die nackten Rechenwerke mögen weitgehend identisch sein, aber ohne Schnittstellen nach außen (Grafik, Flash, RAM, GPIO, USB, WLAN, GSM etc.) und Funktionseinheiten für die konkrete Anwendung (Dekoder, Krypto, KI etc.) bringen sie auch keinem was.

    Gerade den Beitrag dieser gesonderten Funktionseinheiten darf man nicht unterschätzen. Bei einem Intel Core 5 oder einem AMD Ryzen 5 kann man sehr viele Probleme in Software mit brachialer Rechenkraft erschlagen. ARM-Kerne sind zwar schön sparsam, aber das geht auf Kosten der Leistungsfähigkeit. Bei denen komme ich viel, viel früher an den Punkt, wo eine Softwarelösung, die auf den Allzweckrechenwerken arbeitet, zu lange brauchen oder zu viel Strom ziehen würde. Und dann müssen eben Erweiterungen herhalten, die das jeweilige Problem (welches von der konkreten Anwendung abhängt) in Hardware lösen. Das muss dann ins Betriebssystem integriert werden. Weil aber niemand Lizenzgebühren und Programmierer bezahlen will für Dinge, die sie gar nicht brauchen, ist jeder ARM-Chip ein Unikat, welches immer nur genau das enthält, was gerade gebraucht wird und spezielle Software braucht, um zu funktionieren.

    Große Handy-Hersteller, die sich die teuren Lizenzen (bei denen man modifizieren darf) leisten können, pflegen ihre eigenen, für Smartphones optimierten ARM-CPUs. Zum Beispiel Apple (A9, A11, etc.) oder Samsung (Exynos-Serie). Auch der NVidia Tegra ist so ein Fall, kommt aber AFAIK nicht in Smartphones zum Einsatz. Huawei hatte wohl auch mal eine solche Lizenz, diese aber im Zuge von Trumps Sanktionen verloren. Keine Ahnung, ob sie die inzwischen wieder haben. Auf jeden Fall forschen die nun auch an eigenen CPUs, die ohne westliche IPs auskommen, um künftig unabhängig zu sein.

    Daneben gibt es Chiphersteller, die fertige SoCs für alle möglichen Anwendungen (vom Handy über die Settop-Box auf dem Fernseher bis zum NAS) herstellen. Zum Beispiel Qualcom mit dem Snapdragon für Handys. Die modifizieren das Design auch. Eine der Stärken der Snapdragons ist ihre vergleichsweise leistungsfähige Adreno-Grafikeinheit, für die natürlich dann auch eigene Treiber nötig sind. Andere Hersteller setzen entweder die von ARM entwickelten Mali-Grafikcores ein oder lizenzieren irgendwelche Dritthersteller-Einheiten. Mediatek bedient z.B. mehr so die preiswerteren Marktsegmente und baut unmodifizierte CPUs nach den Vorlagen von ARM. Aber auch für die müssen sie Software und Treiber liefern, weil ARM das ja nicht macht. Die bauen ja nix. Und diese Treiber sind nicht notwendigerweise quelloffen. Die würden vielleicht auf anderen ARM-CPUs auch teilweise laufen, aber natürlich kann Mediatek das mit allen Mitteln verhindern (Softwarelocks, Knebellizenzen, bewusst inkompatibel entwickelt etc). Schließlich wären sie ja doof, die eigene Konkurrenz mit Treibern zu versorgen. Die sollen mal schön nur für die eigenen Produkte eingesetzt werden können.

    Je mehr diese Hersteller am Design ändern, desto mehr müssen sie die Software anpassen, damit sie weiterhin läuft. Und jeder werkelt für sich, der Open Source Gedanke ist der Branche eher fremd. Und die Handyhersteller, die Chips von Qualcomm oder Mediatek einsetzen, die müssen dann eben für alles, was sie sonst noch so dazu packen, auch zusätzliche Treiber entwickeln und auf Anwendungsebene einbinden.

    Da kann man richtig tief ins „Rabbit Hole” eintauchen und kommt schnell vom Hundertsten ins Tausendste. Die Kurzform lautet, dass die ARM-Welt deutlich zerklüfteter und zersplitterter ist als die x86-Landschaft mit ihren gerade mal zwei Herstellern.

    Zudem hatte ich auch gehört es liegt daran, dass - jetzt begeb ich mich aufs Glatteis - Android erst vor kurzem eine Abstraktionsschicht eingeführt hat, so wie es Microsoft macht. Denn bei Windows kann man auch einfach Updates fahren ohne auf die neuen Treiber der jeweiligen Systemkomponenten warten zu müssen.
    Im Prinzip ja. Diese Abstraktionschicht (Projekt Treble) dient in der Tat dazu, so viel von Android wie möglich unabhängig von der konkreten Hardware zu machen. Damit Google diese Teile dann autark und ohne Mitwirkung der Hersteller über den PlayStore aktualisieren kann. Das ändert allerdings nichts am zugrunde liegenden Problem. Der eigentliche Hardware-Layer ist und bleibt ein chaotisches Gewirr, er wird nun lediglich besser vom restlichen System isoliert.

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist offline

  13. #13 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.597
    Zitat Zitat von Professor Hunt Beitrag anzeigen
    [...] musste feststellen, dass viele billige AM4 Boards gar nicht die passenden Grafikanschlüsse haben (Anzahl, Typ, Version). Ich bräuchte wohl 2x HDMI 2.0 oder wenigstens eins davon und DP1.2. Das finde ich erst bei einem 120 Euro Motherboard :/
    Auch die kleineren Boards sollen HDMI 2.0 unterstützen, das sei abhängig von der verwendeten APU. Steht so jedenfalls bei fast jedem AM4-Board auf Geizhals - als Hinweis - dabei. Auf den Hersteller-Seiten konnte ich ein solchen Hinweis nicht finden. Aber Nutzerberichte das dem Hinweis recht gibt.

    HDR am PC zum laufen zu bekommen, soll jedoch mit einigem Aufwand verbunden sein. Golem.de - HDR bleibt Handarbeit

    Zitat Zitat von Professor Hunt Beitrag anzeigen
    Aktueller Stand:
    wie oben schon angedeutet:
    neue, kleine GPU und neue Lüfter, so dass ich zwar weiterhin einen Tower mit doofen Mainboard benutze, aber er sehr leise ist, ich noch ein bisschen was aus dem alten i5 raushole und ich beide Monitore ansteuer.
    Denkt ihr das ist sinnig? Ich müsste nicht viel Geld ausgeben, meine aktuelle Hardware wird nicht plötzlich Schrott und ich kann es einfach so weiterbetreiben bis wirklich alles den Geist aufgibt.
    (dann wäre wohl eine RX570 mein Favorit).
    Die neuste HW-De-/Encoder-Version haben allerdings nur die APUs mit Zen-Architektur und die NAVI-GPUs.
    Polaris hat den älteren UVD 6, dort soll es ein Bug mit dem VP9-Codec geben, welcher auch bei Vega (nur bei den GraKas, 56/64) nicht gelöst worden sein soll. VP9 wird meines Wissens hauptsächlich von Youtube genutzt (also mit meinem i7-4790K konnte ich auch vier UHD-Videos von YT gleichzeitig laufen lassen (bei ~50% CPU-Auslastung), nur meine 50 MBit-Leitung stieß dabei an ihre Grenzen - für 8K-Videos auf YT reichte die CPU-Leistung aber nicht mehr).
    Der Bug scheint aber auch von der verwendeten Software abzuhängen. Bei einer kurzen Suche, schien es wohl Chrome zu betreffen, aber Firefox nicht.
    Auf der sicheren Seite wäre man wohl nur einer Navi-GPU (oder eben einer APU), aber die bald erscheinende RX 5500 wird wohl nicht in der Preisklasse einer RX 570 liegen. Vermutlich eher bei ~200€, zumindest am Anfang.
    Wenn es nur ums abspielen von Videos geht, wäre eine 570 sowieso mehr als nötig, die RX 550 / 540 gehören auch zur Polaris-Familie, und haben den gleichen de-/encoder. Die RX 550 gibts ab 80€.

    Bei GeForce könnte man sich ab der 1050 bedienen, die 1030 ist in ihrem Funktionsumfang beschnitten.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  14. #14 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Wisst ihr was Kinners, ich bin hier immer noch nicht weiter :/

    Ich glaube ich würd weiter mit meinem alten PC vorlieb nehmen, wenn er nicht so laut wäre. Teilweise stammt das von der GPU oder vllt schlechten Linuxtreibern? Es ist mir gerade wieder aufgefallen, als ich den Steam Client an machte: Die GPU fängt da schon im Desktopbetrieb an laut zu werden. Das find ich blöd.

    ich hab mal spontan RX 550 verglichen und die 3 wären meine Favoriten
    https://geizhals.de/?cmp=1616842&cmp...39&cmp=1612193

    Spricht irgendetwas dagegen die jetzt zu kaufen oder maximal zu warten bis sie noch günstiger werden?
    Im nächsten Schritt würd ich mir irgendwann ein Mini-ATX Board holen oder so und die Maße der GPUs sollten wohl ausreichen für einen Mini-Desktop, oder?
    Professor Hunt ist offline

  15. #15 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.597
    Steam nur zu starten, sollte eigentlich keine last bei der GraKa verursachen das ein hochdrehen von deren Lüfter rechtfertigt.
    Für Linux gibts bestimmt auch Tools um die Lüfterkurve manuell festzulegen. Dadurch könnte man die Temperaturschwelle ab wann der Lüfter hochdreht ändern.

    Was gegen die RX 550 spricht ist der Preis. Für den gleichen bzw. nur wenig mehr, gibts deutlich leistungsfähigere Karten. Und das nicht nur von AMD, sondern auch NVIDIA. Ich würde aber nicht erwarten, das die Preise der RX550 noch merklich fallen. Die hatten schon von beginn an ein sehr schlechtes Preis-/Leistungsverhältnis.

    Du meinst µATX, mini-ATX ist ungewöhnlich und im freien Markt nicht verfügbar. Man darf es auch nicht mit dem deutlich kleineren mini-ITX verwechseln.
    Welche GraKa von den Maßen her dazu passt, hängt vom Gehäuse ab. Und es gibt mini-ITX-Gehäuse, da passende High-End-GraKas rein. Ebenso gibts Gehäuse, da sind die von dir verlinkten Modelle noch viel zu groß. Und Gehäusen in die gar keine Erweiterungskarte (also auch keine GraKa) hinein passt.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  16. #16 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Das ist zu viel Information für mein kleines Hundehirn

    Grundsätzlich halt irgendwie was kleineres, aber kA ob das geht.

    Ich hab bei Geizhals für unter 100 Euro mit HDMI 2b eigentlich nur die AMD 550 gefunden. Sehe da nicht viele Alternativen.
    Professor Hunt ist offline

  17. #17 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.597
    Nur das eben ab ~130€ es schon die deutlich schnellere RX 570 mit 8GB VRAM gibt. Von NVIDIA gäbe es für den gleichen Preis wie die RX 570 die GTX 1050 Ti mit 4GB VRAM, die ist ebenfalls deutlich schneller als die RX 550, aber langsamer als die RX 570.
    Mit weniger als 4GB VRAM gäbe es auch etwas günstigere Karten.

    Muss es denn eine so kurze GraKa sein, wie die drei in deiner Verlinkung? Welches Gehäuse hast du? Wenn dir die Bezeichnung nicht geläufig ist, hast du es mal ausgemessen?

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  18. #18 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Zitat Zitat von Homerclon Beitrag anzeigen
    Nur das eben ab ~130€ es schon die deutlich schnellere RX 570 mit 8GB VRAM gibt. Von NVIDIA gäbe es für den gleichen Preis wie die RX 570 die GTX 1050 Ti mit 4GB VRAM, die ist ebenfalls deutlich schneller als die RX 550, aber langsamer als die RX 570.
    Mit weniger als 4GB VRAM gäbe es auch etwas günstigere Karten.

    Muss es denn eine so kurze GraKa sein, wie die drei in deiner Verlinkung? Welches Gehäuse hast du? Wenn dir die Bezeichnung nicht geläufig ist, hast du es mal ausgemessen?
    Ich würd grundsätzlich gern bei AMD bleiben.
    Hm...die 570 wird aber dann auch bald runtergesetzt,oder? Ist das realistisch?

    Uff..ich habe jetzt einen richtigen Desktop und alle 550 mit meinen Anforderungen sind so klein. Ich dachte das ist automatisch ein zweiter Formfaktor für kleinere Gehäuse, aber anscheinend gibts da auch Unterschiede.
    Ich hätte sonst geschaut, dass ich mir ein neues, kleineres Case kaufe mit nem AM4 Ryzen später. Daher dacht ich eine kleine GPU würde zufälligerweise auch einfach dazu passen.
    Professor Hunt ist offline

  19. #19 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.597
    Die 570, 580 und 590 befinden sich bereits seit Monaten im Abverkauf, viel weiter im Preis sinken werden diese nicht mehr.

    Es gibt zwar GraKas die speziell für "ITX"-Gehäuse gedacht sind, und dementsprechend besonders Kompakt gebaut werden. Aber wie ich schon geschrieben habe, gibt es auch ITX-Gehäuse in denen recht große Grafikkarten ihren Platz finden. Ebenso welche wo auch die von dir verlinkten nicht hinein passen. Es kommt dann also darauf an, welches Gehäuse du später nutzen willst.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  20. #20 Zitieren
    Held Avatar von Professor Hunt
    Registriert seit
    Oct 2009
    Beiträge
    5.752
    Ich habs mir mal angeschaut und ein bisschen was zusammengestellt mit neuem GPU, CPU, RAM, Motherboard etc und das ist mir letztlich zu teuer für meinen aktuellen Zweck. Ein schnuckliger Singleboard-PC wäre auch geil, aber da gibts nur Intel und das ist für mich nicht attraktiv, wenn aller paar Monate irgendwelche schrecklichen Meldungen über die rauskommen.

    Okay, also erstmal nur neue GPU.
    Was solls werden?
    Ist RX 550 das realistischste? Eine mit 2GB oder eine mit 4GB?
    Ich glaub ich möchte mich jetzt mittlerweile schnell entscheiden, damit das Thema vom Tisch ist und entweder krieg ich die GPU jetzt noch günstig oder nach Weihnachten - dafür müsste ich aber erstmal wissen, wonach genau ich Ausschau halten sollte.
    Professor Hunt ist offline

Seite 1 von 2 12 Letzte »

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •