Ergebnis 1 bis 12 von 12

Unterschiede der Linux-Distributionen

  1. #1 Zitieren
    Veteran Avatar von Gamer 23
    Registriert seit
    Mar 2006
    Ort
    Khorinis
    Beiträge
    699
    Hallo zusammen,

    ich bin am Überlegen auf meinem Notebook ein Linux zu installieren.
    Da es aber unzählige Distributionen gibt, stellt sich nun die Frage „welches“ – ich hatte früher öfters mal mit Ubuntu und Mint als Live-System gespielt, beide gefallen mir auch recht gut. Gibt aber noch unzählige andere wie z. B. Zorin OS, Solus OS, Elementary OS, OpenSUSE, MX, Manjaro, Deepin, Slackware usw. – das was ich jetzt mal gefunden habe und was ich auch potenziell interessant finde.

    Aber nun eine allgemeine Frage:
    Unterscheiden sich die Linux-Distributionen in Sachen Sicherheit, Stabilität, Datenschutz und Performance oder sind die aufgrund des Kernels alle mehr oder weniger gleich in diesen Aspekten?

    Vielen Dank für eure Einschätzung.

    Viele Grüße
    Fabi
    Gamer 23 ist offline

  2. #2 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.049
    Also konzeptionell kann man Distributionen (Distris) in zwei Klassen einteilen: Rolling-Release und Point-Release.

    Point-Release ist das klassische Verfahren. Wenn eine neue Version der Distri fertig ist, wird daraus ein großes Paket geschnürt und dann bleibt der Inhalt mehr oder weniger gleich. Bis irgendwann die nächste Version kommt und die alte ersetzt. Nur Sicherheitsupdates kriegt man natürlich trotzdem regelmäßig. Vor Windows 10 war das auch das Verhalten, wie man es von Windows kannte. Windows 7 hatte gegenüber Windows XP neue Funktionen, bekam aber im Laufe seines eigenen Lebens keine nennenswerten eigenen neuen Funktionen nachgeliefert. Die wanderten dann in Windows 8. Linux Mint 20.1 kommt beispielsweise mit LibreOffice 7.0. Und das wird aller Wahrscheinlichkeit nach auch so bleiben. Wer Version 7.1 haben will, muss sich die auf andere Weise besorgen. Die meisten Distris arbeiten so, unter anderem Ubuntu, Mint, Fedora, Elementary OS. Der Vorteil hier ist, dass es unwahrscheinlich ist, dass ein Update irgendwelche Arbeitsabläufe unterbricht, weil ja nur Sicherheitspatches nachträglich installiert werden. Wenn beispielsweise LibreOffice 7.1 nicht mehr kompatibel ist mit irgendeiner anderen Software, die du brauchst, dann kannst du sicher sein, dass du es nicht „überraschend” per Update untergeschoben bekommst. Höchstens kommt es dann irgendwann mit Mint 21 oder so und da kannst du dann vorher ausgiebig testen. Der Nachteil ist, dass du halt auch auf Mint 21 warten musst, um LibreOffice 7.1 zu kriegen (oder halt auf eigene Verantwortung aus anderen Quellen installieren). Dir entgehen also im Zweifel die neusten Features, die 7.1 hätte und 7.0 noch fehlen.

    Rolling-Release bedeutet, dass es keine solchen festen Zyklen gibt. Wann immer irgendeine Komponente einen Versionssprung macht, wird sie von der Distri übernommen und ausgeliefert. Entsprechend gibt es keine richtigen Versionen der Distri als solches. Ab und zu wird mal der aktuelle Stand zu einem ISO-Image verpackt, welches man dann zur Installation nutzen kann, aber das stellt nur eine Momentaufnahme dar. Hier drehen sich die Vor- und Nachteile um. Du hast immer den aktuellsten Stand an Software und die neusten Funktionen, aber es kann halt auch passieren, dass irgendein Programm einen großen Versionssprung macht und sich dann plötzlich Abläufe ändern, alte Funktionen mangels Support eingestellt werden oder Dinge nicht mehr kompatibel sind. Beispiele für Rolling-Release-Distros sind Arch Linux, AntergOS, Gentoo und Solus.

    Das ist also so mit die erste grundsätzliche Entscheidung, die du treffen musst. Willst du lieber ständig aktuelle Software mit dem Risiko, dass Dinge kaputt gehen? Oder lieber stabile Abläufe um den Preis, dass die Software ggf. nicht die neuesten Features hat?

    Point-Release Distris kann man dann weiter unterscheiden in welche mit kurzen und welche mit langen Release-Zyklen und Support-Zeiten. Also wie oft eine neue Version kommt und wie lange die alten dann noch Updates kriegen. Ubuntu beispielsweise bringt alle 6 Monate eine neue Version heraus und die jeweils vorherige fällt dann nach weiteren 3 Monaten aus dem Support (kriegt also keine Sicherheitsupdates mehr). Man muss daher jede neue Version auch installieren und kann nicht einfach mal eine aussetzen. Der Vorteil ist natürlich, dass man auch alle 6 Monate frische Software kriegt. CentOS hatte hingegen Support-Zeiten von 10 Jahren, da muss man also bedeutend seltener auf die jeweils neuste Fassung aktualisieren. Inzwischen zeichnet sich das Ende von CentOS ab, aber Rocky Linux will es wohl beerben. Ubuntu bietet als Alternative auch sogenannte LTS-Versionen (Long Term Support) an, die zwei Jahre mit Patches versorgt werden. Auch Debian kommt ungefähr alle 2 Jahre mit einer neuen Version und dann wird die alte noch ein Jahr weiter unterstützt. Hier wiederholt sich die Abwägung, die man schon weiter oben machen musste: Will man lieber öfter die ganze Distri aktualisieren, dann aber auch neuere Software kriegen? Oder soll die Distri möglichst lange so bleiben, wie sie ist?

    Wenn eine Distri alles kann, was man braucht und man damit wunschlos glücklich ist, bietet sich entsprechend etwas möglichst langlebiges an. Benötigt man öfter mal neue Funktionen (z.B. weil man die Hardware öfter aktualisiert oder neue Spiele auch die neusten Treiber brauchen), dann bietet sich der Griff zu irgendwas kurzlebigem an.


    Unabhängig davon gibt es eine weitere Dimension, die man berücksichtigen kann. Das wäre die der Abstammung. Die meisten Distris fangen nicht komplett neu an, sondern basieren auf anderen Distris. Das macht das Leben für die Entwickler einfacher, weil man nicht jedesmal das Rad neu erfinden muss. Statt dessen nimmt man eine Distri, die im Prinzip schon gut den eigenen Wünschen entspricht und ändert dann nur ab, was einem nicht gefällt. Ubuntu basiert beispielsweise auf Debian und Mint seinerseits auf Ubuntu. Diese Distris sind also miteinander verwandt und daher sehr ähnlich im Aufbau. Wer eine kennt, findet sich auch auf der anderen recht zügig zurecht. Beispielsweise benutzen alle 3 Distris das Paketformat von Debian (DEB) und die dazugehörenden Werkzeuge. Fedora hingegen gehört nicht zu dieser Familie und benutzt das Redhat Paketformat (RPM). Nachkommen von Fedora wären z.B. Scientific Linux oder OpenWall.


    Und der letzte Faktor, den man berücksichtigen kann, ist: Hat man einen Bekannten, der bereits Linux-Erfahrung hat und einem im Zweifel helfen kann? Und welche Distri benutzt der? Denn natürlich kann einem dieser Bekannte am besten mit der Distri helfen, die er selber kennt und nutzt.


    Ansonsten gibt es keine großen Unterschiede in Sachen Sicherheit und Stabilität und man kann nach Geschmack gehen. Mint bemüht sich zum Beispiel, einen klassischen Desktop-Arbeitsplatz zu stellen und macht keine Experimente mit komischen Bedienkonzepten und neumodischen Designgeschichten. Immer eine gute Wahl für Leute, die von Windows kommen. ElementaryOS will besonders schick sein, opfert dafür auch gelegentlich mal Funktionalität und bietet sich evtl. für Mac-Umsteiger an (die sind eh gewohnt, dass sie nix können und dürfen ). Ubuntu ist so ein Mittelding. Kubuntu, Neon und KaOS benutzen den KDE-Desktop, der (für Linux-Verhältnisse) vergleichsweise schwergewichtig ist, aber auch viel Funktionalität und Einstellmöglichkeiten bietet. Xubuntu und die XFCE-Variante von Mint benutzen hingegen XFCE, der klein und schnell ist (während man unter KDE noch auf dem Splashscreen guckt, kann man unter XFCE bereits arbeiten). Und so weiter. Da muss man sich aber nicht groß verrückt machen. Einfach ein paar Live-Systeme probieren und dann nehmen, was einem gefällt. Oft kann man den Desktop auch nachträglich wechseln (Xubuntu hat z.B. XFCE als Standard-Desktop, lässt sich aber auch mit ein paar Handgriffen auf KDE oder Gnome umstellen).

    Eventuell noch relevant ist, wenn man spezielle Software einsetzt, für die der Hersteller dann bspw. eine bestimmte Distri empfiehlt, weil er sie nur da getestet hat und nur da auch Support bietet. Steam z.B. empfiehlt Ubuntu, Mint oder SteamOS.

    Ganz selten hat man mal den Fall, das ein Feature exklusiv für eine Distri ist. Mint 20 hat beispielsweise die Software „Warpinator”, mit der man über die GUI schnell und bequem Dateien über das LAN auf andere Mint-Maschinen übertragen kann, ohne mit Dateifreigaben oder sowas hantieren zu müssen. Keine Ahnung, ob andere Distris die Software übernehmen wollen, aber seinerzeit war sie nur auf Mint zu haben.


    Ich persönlich benutzte aktuell Debian auf dem Server und Mint XFCE auf dem Desktop und Laptop.

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist offline Geändert von foobar (16.04.2021 um 10:12 Uhr)

  3. #3 Zitieren
    Veteran Avatar von Gamer 23
    Registriert seit
    Mar 2006
    Ort
    Khorinis
    Beiträge
    699
    Vielen Dank für Deine ausführliche Antwort und Infos, foobar

    Das wäre dann bei mir tatsächlich die Point-Release-Variante, die zu mir passen würde. Das ist ein guter Hinweis bzgl. den Support-Zeiten.
    Ich werde am Wochenende mal ein paar Live-Systeme aufbereiten und ausprobieren.

    Noch eine Frage bzgl. Sicherheit – Du hattest ja mal einen Artikel geschrieben wo Du die historischen Hintergründe zur Windows-Sicherheit erläutert hast und dass Windows zwar schon besser geworden ist mit UAC usw. aber dennoch nicht so optimal wie Linux aufgestellt ist.
    Welchen konzeptionellen Vorteil hat Linux denn in diesem Fall, was Windows nicht hat?

    Edit: Ach jetzt sehe ichs gerade – meine Frage wurde sogar ins Glossar „foobar erklärt die Welt der Informatik“ mit aufgenommen
    Gamer 23 ist offline

  4. #4 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.049
    Zitat Zitat von Gamer 23 Beitrag anzeigen
    Welchen konzeptionellen Vorteil hat Linux denn in diesem Fall, was Windows nicht hat?
    Ok, also warum ist Linux konzeptionell sicherer als Windows? Aus dem Stegreif:


    Geschichte

    Wie bereits in meinem Post zu den historischen Hintergründen ausführlich erläutert, ist Linux ein Kind des Internet und war daher von Anfang an darauf ausgelegt, in einem Netz eingesetzt zu werden, in dem man nicht jedem vertrauen kann. Windows kommt hingegen aus dem Heimcomputerbereich und war lange Zeit überhaupt nicht internetfähig, also brauchte es sich um Angriffe aus dem Internet auch keine Sorgen zu machen.



    Paketverwaltung

    Ein weiterer klarer Vorteil von Linux-Distris ist z.B. die zentrale Paketverwaltung. Unter Windows kämpft jedes Programm für sich selbst, wenn es um die notwendigen Sicherheitsupdates geht. Kram von Microsoft (Windows selbst, Office) und einige Treiber sind inzwischen auch über Windows-Update erhältlich, aber das ist nach wie vor ein geschlossenes System. MS kontrolliert, was ausgeliefert wird und die haben natürlich kein Interesse daran, Konkurrenten auch schön bequem mit Updates zu versorgen. Also hast du für jeden Hersteller (und teilweise sogar jede Software) einen eigenen Updater. Und in der Masse nervt das dann auch gewaltig. Da hattest du deinen Rechner eine Woche nicht mehr an und dann kommen auf einmal die Updater von Java, Photoshop, Firefox, Thunderbird, 3rd-Party-Virenschutz, Mediaplayer wie VLC, PDF-Betrachter und so weiter. Jeder zu einer anderen Zeit, mit anderer Optik, anderen Bedienelementen und ggf. noch seinem eigenen Neustart. Bei einigen muss man noch aufpassen, dass man keinen Werbemüll untergemogelt bekommt. Da sind zum einen Fehlbedienungen nicht ausgeschlossen und so mancher genervte User stellt die automatischen Updates dann auch einfach ab. Zudem gibt es keine Möglichkeit, mit einem Schlag alles zu aktualisieren. Man muss jedes Programm einzeln aufmachen und gucken, ob es Updates findet.

    Unter Linux kommt alles aus einer Hand. Jede brauchbare Distri bringt bereits tausende von Anwendungen für alle möglichen Einsatzzwecke mit und jeder, der es möchte, kann sich mit seinem eigenen Kram da einklinken (z.B. PPAs unter Ubuntu/Mint). Die Paketverwaltung kennt also jedes installierte Programm und dessen Version und weiß, wo nach Updates zu suchen ist. Und das macht sie dann auch, so dass man mit drei Klicks ein Linux-System komplett aktualisieren kann. Ohne langes Geschiss. Zwar ist es theoretisch auch unter Linux möglich, Software an der Paketverwaltung vorbei zu installieren und dann muss man sich da auch selbst um Updates kümmern, aber das sind absolute Ausnahmen. Der Regelfall ist, dass eine einheitliche Paketverwaltung alles aktualisiert.

    Außerdem weiß die Paketverwaltung auch, welches Programm welche Bibliotheken braucht und installiert die entsprechenden Abhängigkeiten nur einmal. Wird eine Abhängigkeit von keinem Programm mehr gebraucht (weil man z.B. alle deinstalliert hat), erkennt die Verwaltung das und bietet an, auch diese nun ungenutzten Bibliotheken wieder zu entfernen. Dadurch liegt weniger Müll herum, der zum einen Platz belegt und zum anderen auch immer als Angriffspunkt dienen kann. Alle Software kann Fehler enthalten. Die einzige, die garantiert keine Probleme macht, ist die, die nicht installiert ist. Hier setzen dann die Paketverwaltungen der meisten Distris an und schmeißen runter, was nicht mehr gebraucht wird. Unter Windows hingegen kann sich kein Programm darauf verlassen, dass eine bestimmte Bibliothek bereits vorhanden ist (und wenn, dass sie nicht irgendwann überschrieben wird mit einer inkompatiblen Version). Daher muss jedes Programm immer alle Bibliotheken zusätzlich mitbringen und die dann auf Verdacht draufklatschen. Jede diese multiplen Kopien kann ihrerseits ein Sicherheitsproblem sein und mitunter bleiben sie nach der Deinstallation des Hauptprogramms sogar auf dem System zurück. Ist ein bekanntes Problem, dass eine Windows-Installation im Laufe der Zeit immer mehr zumüllt und fetter und träger wird.



    Rechtetrennung

    Ein anderer konzeptioneller Vorteil wäre die Rechtetrennung, die unter Linux sauberer ist. Man arbeitet unter Linux nicht als root, sondern als einfacher Benutzer. Root-Rechte holt man sich nur, wenn man sie wirklich braucht und Programme, die sie nur kurz brauchen (z.B. um sich an einen privilegierten Port zu binden), lassen sie sofort fallen, wenn sie sie nicht mehr brauchen. Mit 'sudo' gibt es eine einfache Möglichkeit, Benutzern eingeschränkte Root-Rechte zu gewähren, ohne ihnen das Root-Passwort geben zu müssen.
    Unter Windows dagegen kommt es auch heutzutage noch vor, dass Programme Administrator-Rechte verlangen, obwohl sie sie nicht wirklich brauchen. Das zwingt die Leute dann dazu, ständig als Administrator zu arbeiten. Um das zu entschärfen, hat MS ja dann die UAC eingeführt. Die funktioniert so, dass von Anfang an zwei Sicherheitstoken existieren (eines mit Benutzerrechten und ein Admin-Token) und das Admin-Token dann nochmal extra geschützt ist und per Klick freigeschaltet werden muss. Aber es existiert trotzdem ständig und könnte zumindest theoretisch abgegriffen werden. Ein Äquivalent zu 'sudo' bringt Windows nicht mit. Will man Benutzer ohne Admin-Rechte haben, dann müssen die für jede Aktion, die Admin-Rechte braucht, das Admin-Passwort kennen und eingeben, was entsprechend nicht so wahnsinnig prickelnd ist.



    Anzahl der Augen

    Und dann ist Linux natürlich Open Source. Es gucken also viele Augen auf den Code und damit erhöht sich die Wahrscheinlichkeit, dass potentielle Probleme frühzeitig erkannt werden. Bei Windows oder MacOS ist der Code ein Geschäftsgeheimnis der jeweiligen Hersteller, da kommt man als Normalsterblicher nicht ran. Natürlich ist auch Open Source kein Allheilmittel und es hat schon echt peinliche Probleme gegeben, die irgendwie keiner gesehen hatte. Aber inzwischen haben wir mehr als genug Belege dafür, dass „Security through Obscurity” insgesamt trotzdem ein deutlich unterlegenes Sicherheitskonzept ist.



    Mono- vs. Mischkultur

    Ferner ist Linux keine solche Monokultur wie Windows. Monokulturen sind halt immer anfälliger (siehe z.B. die Hungersnot in Irland von 1845, die entstand, weil man ausschließlich eine bestimmte, besonders ertragreiche Kartoffelsorte angebaut hatte und sich die als auch besonders anfällig für die Kartoffelfäule erwies). Die Vielfalt bei Linux mit den vielen Distris und Desktops und so weiter mag auf einen Anfänger vielleicht im ersten Moment etwas abschreckend wirken, aber diese Variationen bieten u.a. auch einen Sicherheitsvorteil. Es ist nicht so einfach, einen Angriffsvektor zu finden, der wirklich überall funktioniert. Wenn ich zum Beispiel eine Lücke in der grafischen Benutzeroberfläche von Windows entdecke, kann ich damit jedes Windows-System übernehmen. Finde ich hingegen eine in KDE, dann ist nicht jedes Linux-System anfällig. Sondern nur die, die auch KDE benutzen. Alle Leute mit XFCE, Gnome, Mate, E17 usw. bleiben verschont.



    Anzahl der Nutzer

    Wie auch bereits in dem oben verlinkten Post zu den historischen Hintergründen erklärt, gibt es einfach weniger Leute, die Linux nutzen. Die überwiegende Masse nutzt Windows, also lohnt es sich einfach eher, Viren für Windows zu schreiben. Linux ist kein so attraktives Ziel.

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist offline Geändert von foobar (21.02.2022 um 21:35 Uhr)

  5. #5 Zitieren
    Veteran Avatar von Gamer 23
    Registriert seit
    Mar 2006
    Ort
    Khorinis
    Beiträge
    699
    Vielen herzlichen Dank, foobar für die tolle Erklärung
    Das ist echt super hilfreich und informativ.

    Ich werde mir jetzt mal ein paar Distris angucken am Wochenende. Mal sehen für was ich mich dann entscheide.
    Gamer 23 ist offline

  6. #6 Zitieren
    Tieftöner Avatar von Lookbehind
    Registriert seit
    Dec 2007
    Beiträge
    15.176
    Wie so oft hat foobar hier schon eine Menge guter Punkte erwähnt und das sehr gut ausgeführt. An ein paar Stellen möchte ich aber dennoch meinen Senf noch dazugeben.

    Zitat Zitat von foobar Beitrag anzeigen
    ...
    Point-Release Distris kann man dann weiter unterscheiden in welche mit kurzen und welche mit langen Release-Zyklen und Support-Zeiten. Also wie oft eine neue Version kommt und wie lange die alten dann noch Updates kriegen. Ubuntu beispielsweise bringt alle 6 Monate eine neue Version heraus und die jeweils vorherige fällt dann nach weiteren 3 Monaten aus dem Support (kriegt also keine Sicherheitsupdates mehr). Man muss daher jede neue Version auch installieren und kann nicht einfach mal eine aussetzen. Der Vorteil ist natürlich, dass man auch alle 6 Monate frische Software kriegt. CentOS hatte hingegen Support-Zeiten von 10 Jahren, da muss man also bedeutend seltener auf die jeweils neuste Fassung aktualisieren. Inzwischen zeichnet sich das Ende von CentOS ab, aber Rocky Linux will es wohl beerben. Ubuntu bietet als Alternative auch sogenannte LTS-Versionen (Long Term Support) an, die zwei Jahre mit Patches versorgt werden. Auch Debian kommt ungefähr alle 2 Jahre mit einer neuen Version und dann wird die alte noch ein Jahr weiter unterstützt. Hier wiederholt sich die Abwägung, die man schon weiter oben machen musste: Will man lieber öfter die ganze Distri aktualisieren, dann aber auch neuere Software kriegen? Oder soll die Distri möglichst lange so bleiben, wie sie ist?
    ...
    Hierzu zunächst ein paar Korrekturen:
    - Der Support-Zeitraum für Ubuntu LTS-Versionen ist 5 Jahre, nicht 2
    - Debian wird mehr als ein Jahr nach Release einer neuen Version gepflegt. Der Release-Zyklus ist Testing (Entwicklung der nächsten Version) => Stabel (Aktuelle stabile Version) => Old-Stabel (die vorherige Stabel-Version) => Old-Old-Stabel (die alte Old-Stabel, DIE wird noch 1 Jahr mit Updates versorgt). Die Release-Zyklen bei Debian sind außerdem immer genau vorhersehbar, nämlich wenn es fertig ist. (Wobei ~2 Jahre schon ganz gut hin kommt)
    - CentOS ist quasi tot (hast du ja schon angedeutet). RedHat hat CentOS kürzlich abgesägt und durch CentOS-Stream ersetzt. Der entscheidende Unterschied ist, dass das alte CentOS quasi ein leicht veraltetes RedHat-Enterprise-Linux (RHEL) war, CentOS-Stream hingegen ist jetzt die Entwickler-Version RHEL, entsteht also am anderen Ende des Lebenszyklus.

    Und dann noch eine kleine Ergänzung:

    Ein weiterer Punkt, den man einfließen lassen kann, wenn man sich für eine Distribution entscheidet, ist der Konfigurationsaufwand. Ich bringe mal ein bewusst etwas überspitztes Beispiel. Mint vs Arch.

    Mint gehört eher zu den Einsteiger-Distributionen. Es bringt quasi alles schon vorkonfiguriert mit und man kann als Anwender quasi sofort los arbeiten. Wenn einem die Konfiguration nicht gefällt kann man die natürlich trotzdem anpassen. Allerdings ist es manchmal mehr Arbeit erst alle alten Mauern ein zu reißen, als wenn man auf der grünen Wiese anfangen würde.

    Arch ist da das genaue Gegenteil. Hier ist praktisch nichts vorgegeben und ich kann wirklich auf der grünen Wiese anfangen und mir alles so konfigurieren, wie ich mir das vorstelle. Der Nachteil ist, dass ich das dann aber auch tun muss.

    Es ist also auch eine Frage wie viel Arbeit man da rein stecken möchte und in wie weit man das System wirklich absolut auf die eigenen Bedürfnisse anpassen möchte, oder ob man auch einfach mal mit den Entscheidungen der Distributions-Maintainer leben kann.
    Dabei war das jetzt hier natürlich ein Extrembeispiel. Genau das macht ja auch den Reiz der ganzen Linux-Distributionen aus, dass sie eben bei genau dieser Abwägung jede Menge Zwischenstufen einfügen. (Dabei sind Mint und Arch nicht mal die beiden Enden der Skala, LFS anyone? )

    Zitat Zitat von foobar Beitrag anzeigen
    ...
    Ganz selten hat man mal den Fall, das ein Feature exklusiv für eine Distri ist. Mint 20 hat beispielsweise die Software „Warpinator”, mit der man über die GUI schnell und bequem Dateien über das LAN auf andere Mint-Maschinen übertragen kann, ohne mit Dateifreigaben oder sowas hantieren zu müssen. Keine Ahnung, ob andere Distris die Software übernehmen wollen, aber seinerzeit war sie nur auf Mint zu haben.
    ...
    Du hast netcat falsch geschrieben.

    Zitat Zitat von foobar Beitrag anzeigen
    ...
    Rechtetrennung

    Ein anderer konzeptioneller Vorteil wäre die Rechtetrennung, die unter Linux sauberer ist. Man arbeitet unter Linux nicht als root, sondern als einfacher Benutzer. Root-Rechte holt man sich nur, wenn man sie wirklich braucht und Programme, die sie nur kurz brauchen (z.B. um sich an einen privilegierten Port zu binden), lassen sie sofort fallen, wenn sie sie nicht mehr brauchen. Mit 'sudo' gibt es eine einfache Möglichkeit, Benutzern eingeschränkte Root-Rechte zu gewähren, ohne ihnen das Root-Passwort geben zu müssen.
    Unter Windows dagegen kommt es auch heutzutage noch vor, dass Programme Administrator-Rechte verlangen, obwohl sie sie nicht wirklich brauchen. Das zwingt die Leute dann dazu, ständig als Administrator zu arbeiten. Um das zu entschärfen, hat MS ja dann die UAC eingeführt. Die funktioniert so, dass von Anfang an zwei Sicherheitstoken existieren (eines mit Benutzerrechten und ein Admin-Token) und das Admin-Token dann nochmal extra geschützt ist und per Klick freigeschaltet werden muss. Aber es existiert trotzdem ständig und könnte zumindest theoretisch abgegriffen werden. Ein Äquivalent zu 'sudo' bringt Windows nicht mit. Will man Benutzer ohne Admin-Rechte haben, dann müssen die für jede Aktion, die Admin-Rechte braucht, das Admin-Passwort kennen und eingeben, was entsprechend nicht so wahnsinnig prickelnd ist.
    Wobei man hier fairerweise auch sagen muss, dass Windows in erster Linie ein Desktop-System ist. Ja, in einer Umgebung, in der sich 50 Leute die gleiche Maschine teilen, und zwar gleichzeitig, wie das früher auf Großrechnern durchaus üblich war, da macht so ein System wie Windows es verwendet natürlich wenig Sinn. Aber wenn wir uns mal die Desktop-Systeme der letzten 20-25 Jahre anschauen, dann ist das nicht realistisch. Da finden sich eher 2 Nutzungs-Szenarien:
    - Der Heim-PC hat üblicherweise genau einen Benutzer und der ist gleichzeitig Admin. Ob der jetzt das sudo-Passwort, oder das Admin-Passwort eingeben muss um Updates installieren zu können, macht keinen großen Unterschied. Hier ist das Problem eher, dass die Leute diese Trennung nicht vornehmen, sondern stattdessen immer mit einem Admin-Account arbeiten und nur das UAC noch als Sicherheitsnetz dient.
    - Der Firmenrechner hat dagegen schon durchaus mal mehrere Nutzer. Die haben aber meistens keine Admin-Rechte und kennen das dazugehörige Passwort auch nicht. Jedenfalls sollte das idealerweise so sein ... man sieht ja manchmal auch abenteuerliche Dinge.

    Das hier Linux besser dasteht hat aber vor allem den Grund, dass es die nötigen Mechanismen nicht nur bereitstellt, sondern diese vor allem auch genutzt werden. Das ist überwiegend auch einfach ein Bildungs-Problem. Die meisten Leute die ein Linux-System benutzen und/oder verwalten sind durchaus technisch interessiert und setzen sich mit den Möglichkeiten und Implikationen auseinander. Dadurch sind sie auch viel eher in der Position diese Mechanismen sinnvoll ein zu setzen.
    Windows hat schon sehr lange viele wirklich gute Sicherheitsmechanismen. Der Kampf an dem Microsoft scheitert ist, die Leute dazu zu bringen die auch zu benutzen. Viele Windows-Nutzer haben nicht nur das Konzept der Rechte-Trennung nicht verstanden, sie wehren sich teilweise mit Händen und Füßen dagegen. Das hat man ja schhlißlich früher auch nie gebraucht und umstellen will man sich ja schließlich nicht. Ist ja schon schlimm genug, dass die Oberfläche mit jeder Version anders aussieht.

    Zitat Zitat von foobar Beitrag anzeigen
    ...
    Anzahl der Augen

    Und dann ist Linux natürlich Open Source. Es gucken also viele Augen auf den Code und damit erhöht sich die Wahrscheinlichkeit, dass potentielle Probleme frühzeitig erkannt werden. Bei Windows oder MacOS ist der Code ein Geschäftsgeheimnis der jeweiligen Hersteller, da kommt man als Normalsterblicher nicht ran. Natürlich ist auch Open Source kein Allheilmittel und es hat schon echt peinliche Probleme gegeben, die irgendwie keiner gesehen hatte. Aber inzwischen haben wir mehr als genug Belege dafür, dass „Security through Obscurity” insgesamt trotzdem ein deutlich unterlegenes Sicherheitskonzept ist.
    Hey, ich hab gehört Win-XP ist jetzt auch OpenSource.

    Zitat Zitat von foobar Beitrag anzeigen
    ...
    Mono- vs. Mischkultur

    Ferner ist Linux keine solche Monokultur wie Windows. Monokulturen sind halt immer anfälliger (siehe z.B. die Hungersnot in Irland von 1845, die entstand, weil man ausschließlich eine bestimmte, besonders ertragreiche Kartoffelsorte angebaut hatte und sich die als auch besonders anfällig für die Kartoffelfäule erwies). Die Vielfalt bei Linux mit den vielen Distris und Desktops und so weiter mag auf einen Anfänger vielleicht im ersten Moment etwas abschreckend wirken, aber diese Variationen bieten u.a. auch einen Sicherheitsvorteil. Es ist nicht so einfach, einen Angriffsvektor zu finden, der wirklich überall funktioniert. Wenn ich zum Beispiel eine Lücke in der grafischen Benutzeroberfläche von Windows entdecke, kann ich damit jedes Windows-System übernehmen. Finde ich hingegen eine in KDE, dann ist nicht jedes Linux-System anfällig. Sondern nur die, die auch KDE benutzen. Alle Leute mit XFCE, Gnome, Mate, E17 usw. bleiben verschont.
    Das gibts als ganz praktisches, wenn auch banales Beispiel. Inzwischen hat sich bei Windows da ja auch ein bisschen was getan, aber früher™ war Theming unter Windows eher eine Randerscheinung. Was auch hieß, dass alle Windows-Systeme praktisch identisch aussahen. Alle Fenster, alle Icons, höchstens das Hintergrundbild war mal anders. Das haben sich viele Leute mit ... flexibler Moralvorstellung ... zunutze gemach und auf ihren Webseiten entsprechen gestaltete Elemente eingebaut, die dem geneigten Besucher glauben machen sollten, das hier eine Meldung von Windows aufgeploppt ist, um die man sich doch jetzt mal kümmern müsse. Das war, insbesondere in der Anfangszeit, eine durchaus erfolgreiche Kampagne. Versuch sowas mal mit Linux-Usern. Da sieht fast jeder Desktop anders aus und eine solche "Fake-Meldung" fällt auf wie ein bunter Hund.

    Zitat Zitat von foobar Beitrag anzeigen
    ...
    Anzahl der Nutzer

    Wie auch bereits in dem oben verlinkten Post zu den historischen Hintergründen erklärt, gibt es einfach weniger Leute, die Linux nutzen. Die überwiegende Masse nutzt Windows, also lohnt es sich einfach eher, Viren für Windows zu schreiben. Linux ist kein so attraktives Ziel.
    Und hinzu kommt noch, dass die Leute die Linux einsetzen, sich meistens mit der Technik auch besser auskennen, und dadurch ebenfalls ein schwierigeres Ziel darstellen. Denn neben Sicherheitslücken in der Software selbst, wird ganz oft eben auch direkt der User angegriffen. Und wenn der bereitwillig alles per Admin-Account durch lässt, helfen auch die ganzen Sicherheitsupdates nix.
    Lookbehind ist offline

  7. #7 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.049
    Zitat Zitat von Lookbehind Beitrag anzeigen
    - Der Support-Zeitraum für Ubuntu LTS-Versionen ist 5 Jahre, nicht 2
    Wenn wir schon klugscheißern wollen, dann bitte richtig.

    Tatsächlich werden die Supportzeiten bei Ubuntu ausgewürfelt. Nur für „main” verspricht Canonical 5 Jahre Support, allerdings schreibt Ubuntu-Entwickler Stéphane Graber: „[T]here are a number of packages that are in main but aren't part of a product and so aren't supported past the 9 months mark.

    Die meiste Software (eine Größenordnung mehr) befindet sich aber in anderen Repositories (universe und multiverse), wo diese 5 Jahre nicht gelten. Sondern nur, was immer die Freiwilligen, die diese Pakete pflegen, halt versprechen.

    Im Detail muss man also genau hingucken und wer wirklich langen Support braucht, ist vermutlich mit einer anderen Distri besser bedient. Weil es jetzt nicht speziell um die Eigenarten von Ubuntu ging, habe ich diese etwas kompliziertere Situation halt mal dahingehend vereinfachend zusammen gefasst mit der Überlegung: Solange es die aktuelle LTS-Version ist (also für 2 Jahre), wird sie vermutlich auch einigermaßen brauchbar gepflegt werden. Mea culpa.


    Debian wird mehr als ein Jahr nach Release einer neuen Version gepflegt.
    Da hatte ich mich nach dem Artikel im Debian-Wiki gerichtet. Da sieht man, dass EOL immer 3 Jahre nach Release war. Alles, was länger geht (LTS und ELTS) sind keine offiziellen, vom Debian-Security-Team betreuten Projekte mehr. Ist natürlich die Frage, ob das eine Rolle spielt, solange man halt seine Patches kriegt. Aber bevor ich dazu jetzt noch ein Epos zu verfasse, hatte ich mich halt einfach auf die offizielle Fassung beschränkt. Für die Zwecke, um die es hier geht, schien mir das gut genug. Ich wollte den Usern halt was Gutes tun und ihnen weiteres Geschwafel von mir ersparen. Ferengi-Erwerbsregel Nr. 285: „Einer guten Tat folgt die Strafe auf dem Fuße.


    Der Heim-PC hat üblicherweise genau einen Benutzer und der ist gleichzeitig Admin.
    [...]
    Der Firmenrechner hat dagegen schon durchaus mal mehrere Nutzer.
    Hmm... ich weiß nicht. Zunächst mal haben manche Leute – nicht Nerds wie wir, aber normale Leute – eine Familie, mit denen sie sich den Rechner teilen. Also sind das nicht immer Einzel-User-Systeme. Und selbst der Einzel-User hat mitunter Vorteile. Wenn man z.B. automatisiert eine bestimmte Aktion, die Admin-Rechte braucht, durchführen will, dann kann man das mit 'sudo' so lösen, dass nur für diesen einen Befehl überhaupt kein Passwort eingegeben (oder irgendwo zum Abgreifen für Hacker gespeichert) werden muss.

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist offline

  8. #8 Zitieren
    Veteran Avatar von Gamer 23
    Registriert seit
    Mar 2006
    Ort
    Khorinis
    Beiträge
    699
    Vielen Dank Lookbehind für Deine Anmerkungen und die darauffolgende Antwort, foobar
    Ich habe heute mal ein paar Distributionen durch probiert und ich denke, dass es ein Ubuntu 20.04.2.0 LTS werden wird.
    Finde (allgemein) den LTS-Gedanken recht gut und mir gefällt die Gnome-Oberfläche auch sehr - auch weil es einfach mal was ganz anderes ist.
    Gamer 23 ist offline

  9. #9 Zitieren
    Tieftöner Avatar von Lookbehind
    Registriert seit
    Dec 2007
    Beiträge
    15.176
    Zitat Zitat von foobar Beitrag anzeigen
    Wenn wir schon klugscheißern wollen, dann bitte richtig.
    Touché!
    Auch wenn ich bei einigen Punkten noch Anmerkungen hätte, ich sehe wo hin das führt.

    Nur eins:

    Zitat Zitat von foobar Beitrag anzeigen
    ...

    Hmm... ich weiß nicht. Zunächst mal haben manche Leute – nicht Nerds wie wir, aber normale Leute – eine Familie, mit denen sie sich den Rechner teilen. Also sind das nicht immer Einzel-User-Systeme. Und selbst der Einzel-User hat mitunter Vorteile. Wenn man z.B. automatisiert eine bestimmte Aktion, die Admin-Rechte braucht, durchführen will, dann kann man das mit 'sudo' so lösen, dass nur für diesen einen Befehl überhaupt kein Passwort eingegeben (oder irgendwo zum Abgreifen für Hacker gespeichert) werden muss.
    Genau um solche Rechner ging es mir. Hier ist nicht die Technik das Problem, sondern die Leute die sie nutzen, bzw das nicht tun. Schau dir doch mal solche "Familien-PCs" an. Ja, die haben mehrere Nutzer im Sinne von mehreren Menschen, die daran arbeiten. Aber hast du schon mal erlebt, dass da wirklich mehrere Nutzeraccounts angelegt werden? Es ist nicht so, als könnte Windows sowas nicht. Es wird nicht genutzt! Das ist das Hauptproblem.
    Oder glaubst du ernsthaft, das solche Leute sich dann mit der Konfiguration von sudo auseinander setzen um da die Passwort-Eingabe für einzelne Kommandos zu deaktivieren?

    Zitat Zitat von Gamer 23 Beitrag anzeigen
    Vielen Dank Lookbehind für Deine Anmerkungen und die darauffolgende Antwort, foobar
    Ich habe heute mal ein paar Distributionen durch probiert und ich denke, dass es ein Ubuntu 20.04.2.0 LTS werden wird.
    Finde (allgemein) den LTS-Gedanken recht gut und mir gefällt die Gnome-Oberfläche auch sehr - auch weil es einfach mal was ganz anderes ist.
    Für den Einstig ist das zumindest mal nicht die schlechteste Wahl. Und wenn du dich einigermaßen eingearbeitet hast, wirst du auch feststellen, dass deswegen noch lange nichts in Stein gemeiselt ist. Die Desktop-Umgebung kann man auch nachträglich noch wechseln, und auch ein wechsel der Distribution ist kein Ding der Unmöglichkeit. Viele Umsteiger kommen etwa ein halbes bis ein Jahr nach ihrem Umstieg in die so genannte "Distro-Hopping-Phase", in der man gefühlt jede Woche eine andere Distribution ausprobiert. Warum? Weil es geht!
    Lookbehind ist offline

  10. #10 Zitieren
    Veteran Avatar von Gamer 23
    Registriert seit
    Mar 2006
    Ort
    Khorinis
    Beiträge
    699
    Zitat Zitat von Lookbehind Beitrag anzeigen
    Für den Einstig ist das zumindest mal nicht die schlechteste Wahl. Und wenn du dich einigermaßen eingearbeitet hast, wirst du auch feststellen, dass deswegen noch lange nichts in Stein gemeiselt ist. Die Desktop-Umgebung kann man auch nachträglich noch wechseln, und auch ein wechsel der Distribution ist kein Ding der Unmöglichkeit. Viele Umsteiger kommen etwa ein halbes bis ein Jahr nach ihrem Umstieg in die so genannte "Distro-Hopping-Phase", in der man gefühlt jede Woche eine andere Distribution ausprobiert. Warum? Weil es geht!
    Ja genau, das gleiche hatte ich mir auch gedacht, dass ich - wenns mir dann doch nicht (mehr) gefällt - dann einfach auf eine andere überwechsle. Genug Auswahl hat man ja schließlich
    Gamer 23 ist offline

  11. #11 Zitieren

    Metasyntaktische Variable
    Avatar von foobar
    Registriert seit
    Sep 2004
    Ort
    Direkt hinter dir! Buh!
    Beiträge
    24.049
    Zitat Zitat von Gamer 23 Beitrag anzeigen
    Ja genau, das gleiche hatte ich mir auch gedacht, dass ich - wenns mir dann doch nicht (mehr) gefällt - dann einfach auf eine andere überwechsle. Genug Auswahl hat man ja schließlich
    Mein Tipp in dem Zusammenhang wäre, bei der Installation eine separate Home-Partition anzulegen, in der dann deine persönlichen Dateien landen. Siehe auch Post zu Linux und Partitionen. Natürlich willst du trotzdem von allem, was wichtig ist, ein Backup haben. Aber mit einem separaten /home kannst du dann die Systempartition mit dem Linux jederzeit platt machen und neu aufsetzen (sei es, weil du was anderes probieren möchtest oder weil du sie ordentlich kaputt gespielt hast), ohne vorher langwierig deine Dokumente und so sichern und hinterher wieder einspielen zu müssen. Einfach die alte /home bei Setup der neuen Installation unformatiert wieder einbinden und zack, alles wieder da.

    Muss man nicht machen, spart aber Arbeit.

    Feeling a bit masochistic and want to read more of my diatribes? Check out Foobar's Rantpage.

    foobar erklärt die Welt der Informatik: Was ist ein Zeichensatz?Was ist die 32Bit-Grenze?Warum sind Speicheroptimierer Unsinn?Wie teste ich meinen RAM?Was ist HDR?Was ist Tesselation?Warum haben wir ein Urheberrecht?Partitionieren mit MBR oder GPT?Was hat es mit dem m.2-Format auf sich?Warum soll ich meine SSD nicht zum Anschlag befüllen?Wer hat an der MTU gedreht?UEFI oder BIOS Boot?Was muss man über Virenscanner wissen?Defragmentieren sinnvoll?Warum ist bei CCleaner & Co. Vorsicht angesagt?Was hat es mit 4Kn bei Festplatten auf sich?Was ist Bitrot?Was sind die historischen Hintergründe zur (nicht immer optimalen) Sicherheit von Windows?Wie kann ich Datenträger sicher löschen?Was muss ich bzgl. Smartphone-Sicherheit wissen?Warum sind Y-Kabel für USB oft keine gute Idee?Warum sind lange Passwörter besser als komplizierte?Wie funktionieren Tintenstrahldrucker-Düsen?Wie wähle ich eine Linux-Distribution für mich aus?Warum ist Linux sicherer als Windows?Sind statische Entladungen bei Elektronik wirklich ein Problem?Wie repariere ich meinen PC-Lüfter?Was ist die MBR-Lücke?Wie funktioniert eine Quarz-Uhr?Was macht der Init-Prozess unter Linux und wie schlimm ist SystemD?Mainboard-Batterie - wann wechseln?Smartphone ohne Google?
    foobar ist offline

  12. #12 Zitieren
    Veteran Avatar von Gamer 23
    Registriert seit
    Mar 2006
    Ort
    Khorinis
    Beiträge
    699
    Zitat Zitat von foobar Beitrag anzeigen
    Mein Tipp in dem Zusammenhang wäre, bei der Installation eine separate Home-Partition anzulegen, in der dann deine persönlichen Dateien landen. Siehe auch Post zu Linux und Partitionen. Natürlich willst du trotzdem von allem, was wichtig ist, ein Backup haben. Aber mit einem separaten /home kannst du dann die Systempartition mit dem Linux jederzeit platt machen und neu aufsetzen (sei es, weil du was anderes probieren möchtest oder weil du sie ordentlich kaputt gespielt hast), ohne vorher langwierig deine Dokumente und so sichern und hinterher wieder einspielen zu müssen. Einfach die alte /home bei Setup der neuen Installation unformatiert wieder einbinden und zack, alles wieder da.

    Muss man nicht machen, spart aber Arbeit.
    Oh das ist ja praktisch. Danke für den Tipp. Das ist sehr nützlich, einmal eingerichtet und man kanns beim nächsten mal wieder hernehmen
    Gamer 23 ist offline

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •