Ergebnis 1 bis 12 von 12

4k tv empfehlung

  1. #1 Zitieren
    Knight Avatar von The Old Hunter
    Registriert seit
    Oct 2013
    Ort
    /bin/zsh
    Beiträge
    1.552
    hallo, bin auf der suche nach einem 4k fernseher und ich hab keine ahnung welcher "technich" gut ist. einzige kriterien wirklich : 4k [was wirklich?] und hdr funktion usw. halt das ich auch 4k filme geniesen kann. keine ahnung wie das mit hdmi ist aber ich lese oft das hdmi 2? oder 2.1? besser wohl ist keine ahnung ob das alle 4k tv's koennen oder es einfach nur ein kabel unterschied ist aber ja waere definitiv nett. ach und er sollte gut sich mit einer ps5 bzw xbox series x verstehen aber das sollte eh jeder 4k fernseher denke ich mal. budget sind 400€ als ich selbst geschaut habe ist mir der ins auge gefallen wie schauts aus waere der gut? https://www.amazon.de/Samsung-TU8079...26&sr=1-9&th=1
    The Old Hunter ist offline Geändert von The Old Hunter (25.12.2020 um 19:09 Uhr)

  2. #2 Zitieren
    Sword Master Avatar von Jazz Jackrabbit
    Registriert seit
    Dec 2018
    Beiträge
    816
    Zitat Zitat von The Old Hunter Beitrag anzeigen
    hallo, bin auf der suche nach einem 4k fernseher und ich hab keine ahnung welcher "technich" gut ist. einzige kriterien wirklich : 4k [was wirklich?] und hdr funktion usw. halt das ich auch 4k filme geniesen kann. keine ahnung wie das mit hdmi ist aber ich lese oft das hdmi 2? oder 2.1? besser wohl ist keine ahnung ob das alle 4k tv's koennen oder es einfach nur ein kabel unterschied ist aber ja waere definitiv nett. ach und er sollte gut sich mit einer ps5 bzw xbox series x verstehen aber das sollte eh jeder 4k fernseher denke ich mal. budget sind 400€ als ich selbst geschaut habe ist mir der ins auge gefallen wie schauts aus waere der gut? https://www.amazon.de/Samsung-TU8079...26&sr=1-9&th=1
    HDMI 2.1 bringt als eines der wichtigsten Features Adaptive Sync, was für weniger Fluktuationen in den Frametimes sorgt, sprich ein Bild dass sich konstanter Anfühlt auch wenn die Frameraten unter die Hz Zahl gehen, mit der der Fernseher läuft. Allerdings haben das meistens eh nur Modelle mit 120 Hz oder mehr und die kosten dann auch wesentlich mehr.

    Der Fernseher sieht gut aus, scheint eins der günstigsten 43" Modelle mit HDR10+ zu sein. Alternativ könntest du auch den günstigeren GU43TU6979 nehmen, der von den Features fast identisch ist. Bei dem günstigeren fehlt der Composite Eingang (wer braucht sowas heute noch) und man hat einen HDMI-Anschluss weniger. Beide laufen übrigens nativ mit 60 Hz, den interpolierten Wert kann man sich wegdenken.
    Jazz Jackrabbit ist offline

  3. #3 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.575
    Zitat Zitat von horstVyacheslav420 Beitrag anzeigen
    HDMI 2.1 bringt als eines der wichtigsten Features Adaptive Sync, was für weniger Fluktuationen in den Frametimes sorgt, sprich ein Bild dass sich konstanter Anfühlt auch wenn die Frameraten unter die Hz Zahl gehen, mit der der Fernseher läuft.
    Nein, damit hat Adaptive Sync nichts zu tun.
    Bei Adaptive Sync wird ein Bild ausgegeben wenn es fertig ist, anstatt in einem festgelegten Intervall (bei 60 Hz alle 16,66ms). Die Frametime bleibt davon unberührt, auch die Mikroruckler durch schwankenden Frametimes bleiben erhalten.
    Was mit Adaptive Sync ggü. Vertical Sync (V-Sync - bei Konsolen schon mal Tearing / Bildrisse gesehen?) besser wird, ist der Inputlag. Mit V-Sync hat man ein erhöhten Inputlag von 16,66 oder 33,33ms (bei 60 Hz-Geräten), je nachdem ob Double oder Tripple Buffering.

    Adaptive Sync ist auch unter den Marketingnamen AMD Freesync und NVIDIA G-Sync bekannt.



    Mit wie viel Hz der verlinkte TV arbeitet, wird nicht angegeben. Konnte nur den interpolierten Wert finden, und Interpolierung wird im Game Mode - den man bei einem TV nutzen sollte wenn man spielt, wegen des Inputlag - deaktiviert.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

  4. #4 Zitieren
    Relentless Nightmare Avatar von Defc
    Registriert seit
    Dec 2002
    Beiträge
    24.196
    Ich habe meine Series X an einen LG-TV angeschlossen, dieser unterstützt jedoch nur 4K im 60 Hz-Modus (laut Diagnose meiner Series X).

    Da ich die genaue Modellbezeichnung nicht zur Hand habe, kann ich dir leider nur ein ähnliches Modell verlinken: LG 65UN70006LA

    Ich hatte bisher keine Probleme mit dem Gerät. Die Wiedergabe ist flüssig, das Bild scharf und die Reaktionszeiten angenehm. Es gibt mehrere Einstelloptionen (u.a. diverse Bild- und Soundmodi) und das Gerät lässt sich über Bluetooth/Anschlussbuchse mit einem Soundsystem verbinden. Die Internetverbindung (LAN/WLAN) ist sehr stabil, sodass man das Gerät auch für die üblichen Streamingdienste (Netflix, Amazon Prime, Disney+, DAZN, u.ä.) nutzen kann.

    Wenn du magst kann ich die genaue Produktbezeichnung heute Abend in Erfahrung bringen und dir morgen das richtige Modell verlinken. Preislich variieren die Geräte leider ständig, wie man bereits an meinem obigen Link sehen kann. Hier wäre es ratsam den Markt über einen gewissen Zeitraum zu sondieren und die Preisentwicklung zu beobachten.

    Ich habe für den Fernseher damals (vor etwas über einem Jahr) 750-900 Euro ausgegeben, allerdings werfen gerade Einzelhändler gerne mal deutlich niedrigere Preise in den Raum und es ist denkbar, dass man auch mit 400-600 Euro an ein solches Gerät kommt.
    Defc ist offline

  5. #5 Zitieren
    Knight Avatar von The Old Hunter
    Registriert seit
    Oct 2013
    Ort
    /bin/zsh
    Beiträge
    1.552
    danke fuer die antworten. ich habe mich nun einfach doch fuer den verlinkten samsung tv entschieden
    The Old Hunter ist offline

  6. #6 Zitieren
    banned
    Registriert seit
    Oct 2010
    Beiträge
    22.547
    HDMI 2.0 Fernseher können auch nur HDMI 2.0, das heißt z.B. dass 4k 60Hz nur mit 4-2-2 Chroma Subsampling möglich ist, man also kein "echtes" 4k60 Bild hat.

    [Video]
    ulix ist offline

  7. #7 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.048
    Zitat Zitat von ulix Beitrag anzeigen
    HDMI 2.0 Fernseher können auch nur HDMI 2.0, das heißt z.B. dass 4k 60Hz nur mit 4-2-2 Chroma Subsampling möglich ist, man also kein "echtes" 4k60 Bild hat.
    Ähm... verstehe ich nüscht. HDMI 2.0 spezifiziert doch eine max. Datenrate von 18 GBit/s. Und 3840×2160×60×24 sind bei mir nur ca. 11 Gbit/s. 4K@60Hz mit 8 bit Farbtiefe ohne Farbunterabtastung sollten also möglich sein. Selbst 10 Bit und "echte" 4K bei 16:9 (4096×2304) ginge noch (16 Gbit/s). Erst für 8K oder 120Hz braucht man dann die höhere Bandbreite von HDMI 2.1.

    Habe ich falsch gerechnet?

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist gerade online

  8. #8 Zitieren
    General Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    3.971
    Zitat Zitat von foobar Beitrag anzeigen
    Ähm... verstehe ich nüscht. HDMI 2.0 spezifiziert doch eine max. Datenrate von 18 GBit/s. Und 3840×2160×60×24 sind bei mir nur ca. 11 Gbit/s. 4K@60Hz mit 8 bit Farbtiefe ohne Farbunterabtastung sollten also möglich sein. Selbst 10 Bit und "echte" 4K bei 16:9 (4096×2304) ginge noch (16 Gbit/s). Erst für 8K oder 120Hz braucht man dann die höhere Bandbreite von HDMI 2.1.

    Habe ich falsch gerechnet?
    Wiki
    "Die größte Neuerung der HDMI-Version 2.0 gegenüber der Version 1.3/1.4 ist die Aufstockung der möglichen Übertragungsrate von 8,16 auf 14,4 GBit/s. Dies reicht aus, um Ultra High Definition Television und gleichzeitig bis zu 32 Audiokanäle wiederzugeben.[21] HDMI 2.0 bietet zwar verbesserte 4K-Unterstützung, allerdings ohne 4K 3D 50/60p und ohne HDR."

    Cbase:
    "Die Bezeichnung trägt dem Umstand Rechnung, dass die nominelle Datenrate respektive Symbolrate gegenüber HDMI 2.0 von 18 Gbit/s auf 48 Gbit/s steigt und damit auch DisplayPort 1.4 mit 32,4 Gbit/s überholt. Die nutzbare Datenrate liegt aufgrund der Verwendung des 16b18b-Codes bei rund 42,6 Gbit/s (HDMI 2.0: 14,4 Gbit/s)"
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    [Bild: downloadvpk5n.gif]
    Nobbi Habogs ist offline Geändert von Nobbi Habogs (02.01.2021 um 03:45 Uhr)

  9. #9 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.048
    Ok, also ich habe in der Tat falsch gerechnet, weil auch noch Kodierung (8b/10b) und Audio dazu kommt. Einen Hinweis darauf liefert z.B. die englische Wikipedia:

    Version 2.0

    HDMI 2.0, referred to by some manufacturers as HDMI UHD, was released on September 4, 2013.

    HDMI 2.0 increases the maximum bandwidth to 18.0 Gbit/s. HDMI 2.0 uses TMDS encoding for video transmission like previous versions, giving it a maximum video bandwidth of 14.4 Gbit/s. This enables HDMI 2.0 to carry 4K video at 60 Hz with 24 bit/px color depth.


    Es gibt also eine Bruttodatenrate von 18 Gbit/s. Aber aufgrund der 8b/10b-Kodierung bleiben davon netto 14.4 Gbit/s für Video übrig (18 ÷ 1,25 = 14,4).

    Das reicht aber trotzdem für 4K@60Hz bei 8 Bit Farbtiefe, siehe auch fett markierten Teil.

    Ausführlich vorgerechnet z.B. in der c't 25/13 auf Seite 192 und 193 im Artikel „Tempo verdoppelt - Die neuen Funktionen der digitalen Audio/Video-Schnittstelle HDMI 2.0”:

    Die Übermittlung von Videos in Ultra-HD und 4K wurde tatsächlich bereits in HDMI 1.4 spezifiziert, aber nur mit maximal 30 (2160p30) beziehungsweise 24 Bildern pro Sekunde (4K24) – was für Kinofilme ausreicht. Neu ist die Übermittlung von 4K/Ultra-HD mit bis zu 60 Bildern pro Sekunde für ruckelfreie Ultra-HDTV-Übertragungen etwa von Sportveranstaltungen. [...] Da die maximale Datentransferrate von HDMI seit der Version 1.3 bei 10,2 GBit/s lag, stellt sich die Frage, welche Datenmengen beiden neu spezifizierten Formaten jenseits 4K24 zusammenkommen. Zur Berechnung darf man nicht nur die aktive Auflösung des Videobildes (also die Zahl der tatsächlich angezeigten Pixel) heranziehen. Fernseher und Monitore benötigen eine Dunkelzeit, die bei HDMI zudem für die Übertragung von Audiodaten genutzt wird. Bei den Auflösungen 2160p60 und 4K60 werden daher nicht 3840x2160 beziehungsweise 4096x2160 Pixel übermittelt, sondern jeweils 4400x2250. Weiterhin ist bei HDMI eine Erhöhung des Datenvolumens von 25 Prozent einzurechnen. Diese ergibt sich daraus, dass hier 8 Bit Daten mit 10 Bit kodiert werden (10b/8b Encoding), um unter anderem eine Taktrückgewinnung aus dem Datensignal zu möglichen. Am Ende sieht die Rechnung etwa für die höchste Auflösung 4K mit 60 Hertz Bildwiederholrate und 8 Bit pro Farbe wie folgt aus: Bildauflösung total in Pixel x Bildfrequenz (in Vollbildern) x Farbtiefe pro Kanal in Bit x 3 (HDMI-Datenkanäle) x 1,25 (wegen 8b/10b-Overhead) = Datenvolumen. (4096 + 304) x (2160 + 90) x 60 x 8 x 3 x 1,25 Bit/s = 17,82 GBit/s. So kommt man an das bei HDMI 2.0 als neue Obergrenze genannte Limit von 18 GBit/s.


    Erst mit HDR oder noch höheren Auflösungen oder Frequenzen knackt man dann das Limit.

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist gerade online Geändert von foobar (02.01.2021 um 11:47 Uhr)

  10. #10 Zitieren
    General Avatar von Nobbi Habogs
    Registriert seit
    Nov 2010
    Beiträge
    3.971
    Zitat Zitat von foobar Beitrag anzeigen
    ...
    Ist halt einfach mega ungenau beschrieben. Deshalb eignet sich Wikipedia übrigens nicht als fachliche Quellenangabe, jedenalls ist das der Grund dafür, dass einige das so sehen.
    Mit einem korrupten Speicherstand ist nicht zu spaßen. Sicherheitshalber würde ich die beiden Slots über und unter dem korrupten besser auch frei lassen. Man weiß ja nie. - Matteo
    [Bild: downloadvpk5n.gif]
    Nobbi Habogs ist offline

  11. #11 Zitieren
    Ritter
    Registriert seit
    Feb 2005
    Ort
    Borken
    Beiträge
    1.751
    Ich würde immer ein LG-TV bevorzugen, da nahezu alle Panel von LG kommen auch bei Fernsehr von Samsung, Sony etc.
    Und ich generell finde das LG TV und Monitore immer das beste Bild haben
    ben b. ist offline Geändert von ben b. (14.01.2021 um 11:26 Uhr)

  12. #12 Zitieren
    Springshield  Avatar von Homerclon
    Registriert seit
    Aug 2004
    Ort
    Erde
    Beiträge
    18.575
    Samsung hat eine eigene Panel-Fertigung (die geplante Einstellung der LCD-Panel-Produktion wurde nicht umgesetzt, sie fertigen vorerst weiter), und es gibt noch viele weitere Hersteller. Warum sollte also nahezu jedes Panel von LG kommen? Gerade bei den günstigen Modellen werden keine LG-Panels verbaut sein, dort wird man vermutlich nur Panels chinesischer Unternehmen finden.
    Samsung war auch dazu übergegangen LCD-Panels chinesischer Unternehmen zu verbauen, und hatte auch bereits Fabriken an diese verkauft.


    Ich hab ein TV von LG, und bin mit diesem nicht wirklich zufrieden. Der legt gerne mal eine "Gedenkminute" ein, und reagiert dann auf Eingaben nur stark verzögert. Das ist auch kein Einzelfall, wir haben das Modell nämlich 2x, und beide verhalten sich identisch.

    - Keine verdammte Hechtrolle zum ausweichen in Kämpfe!
    - 01100100 00100111 01101111 01101000 00100001
    Homerclon ist offline

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •