Archiv verlassen und diese Seite im Standarddesign anzeigen : Fragen zu Linux und Netzwerken
Einleitender Hinweis: Der User Lukasweb kam zu uns in die Risen-Technik mit Fragen zum Spiel und irgendwie entwickelte sich daraus ein längerer Thread, indem er Hilfe für alle seine kleinen und großen Problemchen suchte. Ist ja im Prinzip nicht schlimm, dafür ist ein Forum da, aber thematisch passt es irgendwie überhaupt nicht in die R1-Technik. Ich habe daher das letzte Kapitel (Ubuntu und ZAP-Proxy) mal ausgegliedert und in das allgmeine Software-Forum verschoben. Ich hoffe, dass es dort besser passt.
Lukasweb
07.03.2013, 20:10
Danke, werde das dann wohl morgen mal machen.
Nun habe ich mal eine ganz andere Frage:
Ich bin, was Computer angeht, eigentlich vielseitig interessiert, aber manchmal frage ich mich, wo ich weitermachen soll. Im Moment geht es eher in Richtung Server, Netzwerktechnik, aber auch Linux. Mit letzterem habe ich mich schon etwas beschäftigt, habe auch drei virtuelle Maschinen (Ubuntu, Debian und Mint, wobei ich es mit Mint Probleme mit der Bildschirmauflösung gab).
Und wenn ich mich jetzt da weiterbilden will, weiß ich manchmal nicht, wo ich das am besten tun könnte.
Klar könnte man jetzt sagen, man arbeitet sich einfach durchs Wiki:
http://wiki.ubuntuusers.de/Startseite
Aber ein bisschen strukturierter sollte es schon sein.
Ich frage das jetzt einfach mal, da Linux (entnehme ich deinem Profilbild) wohl auch zu ein Steckenpferd von dir ist.
Beschäftigst du dich eigentlich auch mit Programmierung?
Also bei Linux würde empfehlen, dass man sich erstmal mit den Grundlagen vertraut macht. Das heißt zu allererst die jeweiligen Designkonzepte. Ein klassischer Anfängerfehler von Windoof-Umsteigern ist die Vorstellung, dass Linux das bessere Windows sei. Dem ist nicht so. Es verfolgt teilweise eigene und andere Konzepte, die sich bewusst von Windows unterscheiden. Wer glaubt, dass sich Linux wie Windows bedienen lassen oder die exakt gleichen Dinge bieten müsse, der wird schnell enttäuscht werden. Man muss die Unterschiede verstehen und sich darauf einlassen wollen.
Danach kann man sich mit der Shell vertraut machen. Zwar lässt sich auf modernen Distributionen auch vieles auf grafischen Oberflächen erreichen, aber an die Mächtigkeit der Shell reicht keine GUI (erst recht die von Windows nicht) heran. Das ist auch weitgehend unabhängig von der Distribution. Verschiedene Distris setzen vielleicht auf verschiedene Oberflächen (je nach Schwerpunkten und Nutzerwünschen), aber die Shell und Toolchain darunter ist (von Kleinigkeiten abgesehen) immer gleich. Wer Shell kann, kann jedes Linux bedienen, notfalls auch per SSH über’s Internet. Teilweise lässt sich dieses Wissen sogar auf andere unixoide Systeme (wie bspw. MacOS X) übertragen. Das ist also ein gutes Fundament für alles weitere.
Alles andere ergibt sich dann eigentlich beim Experimentieren und Ausprobieren. Man will wissen, wie irgendwas geht, sucht gezielt danach und lernt auf dem Weg dorthin automatisch drei andere Sachen mit. Man kann sich natürlich auch irgendwelche Linux-Schmöker reinziehen, deren didaktischer Ansatz einem zusagt. Aber wenn man es nur für sich selbst lernt (also es nicht dringend für Studium oder Beruf braucht), dann ist es IMHO wichtig, dass man sich selbst den Spaß erhält. Wenn man dann nach einem festen Programm lernt und da dann etwas dran ist, was einen selbst vielleicht nicht interessiert, dann artet das schnell ins Durchquälen aus. Und dann verliert man auch schnell die Lust. Also im Zweifel lieber konkret die Sachen erforschen, die einen wirklich interessieren und motivieren. Und dann nicht gleich aufgeben, wenn man ein paar Umwege machen muss, sondern die (längere) Reise einfach als Lernerfahrung genießen.
Bei der Distri-Wahl gilt die alte Weisheit, dass man am besten die nimmt, die ein hilfsbereiter Bekannter bereits hat. Wenn es dann mal irgendwo klemmt, kann man schnell und unkompliziert Hilfe bekommen. Hat man im näheren Umfeld keine Bekannten mit Linux, kann man zu eine der bekannteren greifen. Da findet sich im Zweifel am ehesten was im Internet zu. Auch eine LUG (Linux User Group) im näheren Umfeld kann helfen.
Wer mit dem Unity-Launcher von Ubuntu nicht klar kommt (ich mag ihn z.B. gar nicht), der kann auch zu einem Derivat mit einer anderen Oberfläche greifen (Kubuntu, Xubuntu, Lubuntu). Ich selbst verwende Kubuntu auf dem Desktop. Die KDE-Oberfläche sieht schick aus und bietet mehr Einstellungsmöglichkeiten als GNOME oder Unity. Wer einen älteren PC hat, sollte sich mal Xubuntu oder Lubuntu angucken, die mit deutlich schwächerer Hardware noch gut laufen. Meinem Vater habe ich Xubuntu auf seinen alten PC geknallt und damit läuft er deutlich schneller als mit dem vorher installieren WinXP.
Was die andere Frage angeht: Ich kann programmieren (sieht man auch daran, dass ich meinen AFdZ-Savegame-Editor in der Sig bewerbe), mache aber in der letzten Zeit nicht mehr so viel. Die Notwendigkeit fehlt einfach, die meisten alltäglichen Problemchen, die ich mir unter Windows noch ein Helferlein programmieren musste, kann man unter Linux mit ein wenig Shellmagie lösen.
Lukasweb
25.03.2013, 11:31
Guten Morgen (oder auch Mittag :D),
ich hab mal wieder eine Frage:
Gemäß diesem Video hab ich mir vorgestern den Zed Attack Proxy runtergeladen und ausprobiert (wie gesagt, ich interessiere mich für Netzwerktechnik):
http://www.youtube.com/watch?v=OiNxgc1waoM
Hier soll jetzt ein Proxy im Browser eingestellt werden, und zwar auf Localhost. Bei mir hat das aber komische Auswirkungen:
Ich kann mit dem Browser dann überall surfen, außer bei Google (aber bei Youtube schon). Woran könnte das liegen?
Und Danke natürlich für deinen ausführlichen Beitrag zu Linux!
Hier soll jetzt ein Proxy im Browser eingestellt werden, und zwar auf Localhost. Bei mir hat das aber komische Auswirkungen:
Ich kann mit dem Browser dann überall surfen, außer bei Google (aber bei Youtube schon). Woran könnte das liegen?
Vermutlich weil Firefox bei Eingabe von "www.google.de" bzw. "google.de" und Benutzung des Suchfeldes standardmäßig auf HTTPS umleitet und du dem Proxy noch keine MitM-Zertifikate untergeschoben hast. Gib mal "http://www.google.de" (vollständig, inkl. des http-Vorspanns) in die Adresszeile ein und gucke, ob's dann geht.
Ich schiebe die Diskussion jetzt übrigens mal ins allgemeine Software-Forum. Mit Risen hat sie ja schon seit langem nichts mehr zu tun.
Lukasweb
26.03.2013, 18:32
Ok, danke. Aber, wie du schon gesehen warst, bin ich in der Zwischenzeit auch draufgekommen. Hättest du schon eine Idee bei diesem Problem?
Dafür habe ich ein anderes Problem, diesmal mit Debian. Wenn ich auf Updates überprüfe, kommt immer diese Fehlermeldung:
Ein internere Fehler ist aufgetreten und die Operation wurde abgebrochen.
Fehlermeldung:
Fetch failed: W:Fehlschlag beim Holen von http://http.us.debian.org/debian/dis...rce/Sources.gz 404 Not Found [IP: 64.50.233.100 80]
, E:Einige Indexdateien konnten nicht heruntergeladen werden, sie wurden ignoriert oder alte an ihrer Stelle benutzt.
Anscheinend kann dann nur ein Teil der Updates runtergeladen werden.
Sieht so aus, als wäre eine ungültige Paketquelle eingetragen. Es gibt kein Verzeichnis namens "updates" auf http://http.us.debian.org/debian/dists/squeeze/.
Eigentlich sollte statt "squeeze/updates" das Verzeichnis "squeeze-updates" abgefragt werden. Vermutlich ein Fehler in deiner /etc/apt/sources.list.
Lukasweb
27.03.2013, 12:15
In den Softwarequllen steht einmal squeeze-updates und einmal squeeze/updates, einmal vom Server der Uni Bayreuth (den ich zwischenzeitlich mal im ersten Reiter ausgewählt habe) und einmal vom Debian-Server. Mittlerweile ist in den Softwarequellen im Reiter "Software von Debian" allerdings der Hauptserver für Deutschland eingestellt. Kann ich den einen Eintrag einfach löschen?
Das hier wäre die soruces.list. Leider kann ich mit Debian die Optionen oben (also auch Kommentieren) nicht nutzen, jedenfalls mit dem Empathy Browser. Liegt das an Flash? Bilder hochladen geht auch nicht.
#
# deb cdrom:[Debian GNU/Linux 6.0.6 _Squeeze_ - Official amd64 NETINST Binary-1 20120930-15:53]/ squeeze main
# deb cdrom:[Debian GNU/Linux 6.0.6 _Squeeze_ - Official amd64 NETINST Binary-1 20120930-15:53]/ squeeze main
deb http://http.us.debian.org/debian/ squeeze contrib non-free main
deb-src http://http.us.debian.org/debian/ squeeze main
deb http://security.debian.org/ squeeze/updates main non-free contrib
deb-src http://http.us.debian.org/debian/ squeeze/updates main
# squeeze-updates, previously known as 'volatile'
deb http://ftp.uni-bayreuth.de/debian/ squeeze-updates main
deb ftp://ftp.de.debian.org/debian/ squeeze main non-free contrib
deb-src http://ftp.uni-bayreuth.de/debian/ squeeze-updates main
EDIT: Mit dem Iceweasel kann ich die Optionen oben nutzen. Bilder hochladen scheint es in dem Unterforum nicht zu funktionieren. Kann das sein?
Wenn du dir diesen Eintrag mal genau anschaust, solltest du den Fehler auch selbst erkennen können:
deb http://security.debian.org/ squeeze/updates main non-free contrib
deb-src http://http.us.debian.org/debian/ squeeze/updates main
Während in der ersten Zeile die Binär-Pakete vom Server security.debian.org geholt werden sollen (wo es das Repository squeeze/updates wirklich gibt), verweist der Eintrag für die Source-Pakete auf http.us.debian.org (wo es das Repository nicht gibt). Ändere also mal die zweite so um, dass sie auf den selben Server zeigt:
deb-src http://security.debian.org/ squeeze/updates main
Einen von den beiden Servern für die Hauptquellen (US oder DE) kannst du löschen, wobei es im Zweifel mehr Sinn macht, den US-Server zu löschen (DE ist netztopoligisch gesehen dichter dran).
Die Frage bzgl. der Browser verstehe ich nicht. Welche Optionen, wo hochladen?
Lukasweb
27.03.2013, 13:11
Der Fehler kommt immernoch, nur etwas anders:
Fehlermeldung:
Fetch failed: W:Fehlschlag beim Holen von http://security.org/debian/dists/squeeze/updates/main/source/Sources.gz 404 Object Not Found
, E:Einige Indexdateien konnten nicht heruntergeladen werden, sie wurden ignoriert oder alte an ihrer Stelle benutzt.
Die Datei sieht jetzt so aus:
#
# deb cdrom:[Debian GNU/Linux 6.0.6 _Squeeze_ - Official amd64 NETINST Binary-1 20120930-15:53]/ squeeze main
# deb cdrom:[Debian GNU/Linux 6.0.6 _Squeeze_ - Official amd64 NETINST Binary-1 20120930-15:53]/ squeeze main
deb http://http.us.debian.org/debian/ squeeze contrib non-free main
deb http://security.debian.org/ squeeze/updates main non-free contrib
deb-src http://security.org/debian/ squeeze/updates main
# squeeze-updates, previously known as 'volatile'
deb http://ftp.uni-bayreuth.de/debian/ squeeze-updates main
deb ftp://ftp.de.debian.org/debian/ squeeze main non-free contrib
deb-src http://ftp.uni-bayreuth.de/debian/ squeeze-updates main
Irgendwie spinnt die Debian-VM eh. Der hängt sich ganz oft auf, außerdem reagiert er manchmal, als würde ich die Maustaste pausenlos drücken, z.B. habe ich ein Fenster weggeschoben, konnte es aber nicht mehr loslassen, auch beim Klicken auf den Desktop nicht.
Was den Browser angeht:
Beim Empathy gibt es die ganzen Bedienelemente über dem Eingabefeld hier im Forum nicht.
Außerdem kann man hier im Unterofurm keine Anhänge hochladen. Im Risen-Forum gab es diese Option unter "Zusätzliche Einstellungen".
EDIT: Mir fällt gerade auf, dass ich den falschen Eintrag entfernt habe.
So müssten die ersten nicht auskommentierten zwei Zeilen doch heißen, oder?
deb http://http.us.debian.org/debian/ squeeze contrib non-free main
deb-src http://http.us.debian.org/debian/ squeeze main
Aber auch noch Änderung gibt es noch eine Fehlermeldung, diesmal eine sehr lange.
Der Fehler kommt immernoch, nur etwas anders
Du hast ja auch schon wieder einen falschen Server eingetragen. Ändere die Zeile doch mal so zum Spaß so ab, wie ich es vorgeschlagen hatte. Nur, um mal zu gucken, was dann passiert.
Zu deinen Problemen mit der VM kann ich nix sagen, bei läuft (unter Virtualbox) mit Linux-Host und diversen Gästen eigentlich alles einwandfrei.
Was den Browser angeht: Nimm halt Firefox (bzw. Iceweasel). Und hochladen von Anhängen ist nicht in jedem Forum erlaubt, da darfst du dir nix bei denken. Im Zweifel den WoP-Upload benutzen.
Lukasweb
27.03.2013, 17:48
Klar, du hast recht. Da hab ich nicht genau hingeschaut. Jetzt geht alles. Jetzt sieht´s so aus:
#
# deb cdrom:[Debian GNU/Linux 6.0.6 _Squeeze_ - Official amd64 NETINST Binary-1 20120930-15:53]/ squeeze main
# deb cdrom:[Debian GNU/Linux 6.0.6 _Squeeze_ - Official amd64 NETINST Binary-1 20120930-15:53]/ squeeze main
deb http://http.us.debian.org/debian/ squeeze contrib non-free main
deb-src http://http.us.debian.org/debian/ squeeze main
deb http://security.debian.org/ squeeze/updates main non-free contrib
deb-src http://security.debian.org/ squeeze/updates main
# squeeze-updates, previously known as 'volatile'
deb http://ftp.uni-bayreuth.de/debian/ squeeze-updates main
deb ftp://ftp.de.debian.org/debian/ squeeze main non-free contrib
deb-src http://ftp.uni-bayreuth.de/debian/ squeeze-updates main
Hier sind eigentlich keine gleichen Werte für unterschiedliche Server erkennbar (für mich jedenfalls nicht, hab mich mit den Paketquellen noch nicht so beschäftigt).
Etwas anders wäre da noch, was aber kein richtiges Problem ist:
Ich muss ja gedit als Admin starten, um die sources.list abändern zu können. Im root-Terminal kommt dann immer diese Meldung:
(gedit:2643): EggSMClient-WARNING **: Failed to connect to the session manager: None of the authentication protocols specified are supported
Funktionieren tut´s aber trotzdem.
Und wie schaffe ich es eigentlich, durch das Root-Terminal erworbene Administratorrechte wieder zu verlieren? "exit" bringt bei mir nichts.
Wie genau holst du dir denn das root-Terminal?
Und dir ist schon klar, dass das nicht wie eine Anmeldung bzw. ein Userwechsel unter Windows ist, oder? Wenn du dich dort auf diese Weise zum Admin macht, läuft die ganze Sitzung einschließlich GUI mit Admin-Rechten. Wenn du unter Linux in einer normalen User-Session ein root-Terminal öffnest, dann läuft nur diese eine Instanz der jeweiligen Shell im Fenster mit root-Rechten. Der restliche Desktop ist nach wie vor nur normaler User. Machst du das Fenster zu (genauer: beendet du den jeweiligen mit root-Rechten gestarteten Prozess), ist das Thema erledigt.
Lukasweb
28.03.2013, 12:57
Ich hole mir das Root-terminal einfach über "Zubehör". Der Grund, warum ich das benütze, liegt darin, dass bei Debian zwei Benutzer erstellt werden müssen. Standardmäßig ist das normale Konto gar nicht in der Lage, Root-Rechte zu erlangen. Jede sudo-Aktion wird mit der Fehlermeldung "[Benuter] is not in the sudoers file" verhindert.
Deswegen habe ich erst mal nur das Root-Terminal benutzt, werde aber auch mein normales Konto dann mal ins sudoers file eintragen, da ich sowieso die gleichen Passwörter dafür und für das Root-Konto habe (unter Ubuntu ist das ja standardmäßig so).
Jetzt weiß ich natürlich ich nicht, welcher Befehl hinter dem Menüeintrag bei Debian steht.
Was die sudoers angeht: Auch da bin ich bei aktuellen Debians ein wenig raus, aber es könnte auch an einer fehlenden Gruppenmitgliedschaft liegen. Normalerweise gibt es bereits einen Eintrag in der sudoers, der bewirkt, dass alle Mitglieder der Gruppe "sudo" auch den sudo-Befehl nutzen dürfen. Kannst du prüfen, indem du in einem normalen Terminal 'groups' eingibst, das zeigt alle deine Mitgliedschaften an. Fehlt da "sudo", dann sollte ein 'adduser username sudo' als root dich hinzufügen (alternativ kannst du auch einfach deinen Usernamen an der passenden Stelle in die /etc/group schreiben). Spätestens beim nächsten Login müsste sudo dann gehen.
Übrigens hast du unter Ubuntu nicht die gleichen Passwörter für root und User. Unter Ubuntu ist der root-Login defaultmäßig deaktiviert (d.h. er hat gar kein Passwort, man kann sich also nicht direkt als root einloggen). Bei sudo gibst du immer dein Benutzerpasswort an (um zu bestätigen, dass immer noch der User vor dem Rechner sitzt, der sich vorher eingeloggt hat und dem die Rechte in der sudoers gewährt wurden). Das ist ja gerade der Sinn der Sache. Auf die Weise kann man einzelnen Usern zusätzliche Rechte einräumen, ohne ihnen gleich das root-Passwort (=Generalschlüssel) geben zu müssen. Wenn die sich per sudo eine root-Shell holen können, ist das natürlich letztlich das Gleiche, aber man kann ja auch in der sudoers einstellen, dass ein Benutzer nur ganz bestimmte Befehle mit root-Rechten ausführen darf. Ist vielleicht etwas ungewohnt, da Windows keinen vergleichbaren Mechanismus kennt (muss man dort per Drittsoftware nachrüsten).
Lukasweb
28.03.2013, 13:34
Er hat den Befehl ausgeführt, aber es besteht immer noch das gleiche Problem. Es jetzt hat sich meine virtuelle Maschine (nachdem es wieder ein Problem gab, dass ein Fenster an meiner Maus hing und später die Markierfunktion) aufgehängt. Soll ich den evtl. mal neuinstallieren?
Was ist eigentlich die beste Virtualisierungslösung? Vermutlich kann man das so pauschal nicht sagen, aber die haben ja bestimmt ihre unterschiedlichen Vor- und Nachteile.
EDIT:
Was Ubuntu angeht:
Bei Debian kann ich aber beim Start auch nicht zwischen root und user wählen. Ich kann mich nur mit meinem Benutzerkonto anmelden. Und bei der Installation von Debian wurde ich, anders als bei Ubuntu, nach zwei verschiedenen Passwörtern für Admin und User gefragt.
Es sollte in der /etc/sudoers (oder ggf. in einer der Dateien unter /etc/sudoers.d) ein Eintrag der Form:
%sudo ALL=(ALL:ALL) ALL
vorhanden sein. Damit erhalten alle Mitglieder der Unix-Gruppe sudo das Recht, alle Befehle per sudo ausführen zu dürfen.
Ich persönlich habe mit VirtualBox gute Erfahrungen gemacht. VMware Player hatte öfter mal Probleme, dass bei neueren Kernel die Module nicht mehr kompilieren wollten und man dann mühselig Communitypatches suchen musste. Der Rest (Xen, KVM, etc.) gehen auf Windows ja eh nicht. Aber natürlich läuft bei mir das Linux nativ auf der Hardware. Windows boote ich nur zum Spielen. Wenn nötig.
Und nur weil root nicht in der Auswahlliste beim DM auftaucht, heißt das nix. Der wird sinnvollerweise bei den meisten DMs ausgeblendet, weil man keine komplette GUI-Session als root laufen lassen will. Probiere im Zweifel mal den Login auf der Textkonsole als root, das müsste gehen.
Lookbehind
28.03.2013, 14:11
Jetzt weiß ich natürlich ich nicht, welcher Befehl hinter dem Menüeintrag bei Debian steht.
Für Gewöhnlich gksu /pfad/zum/terminal.
Was die sudoers angeht: Auch da bin ich bei aktuellen Debians ein wenig raus, aber es könnte auch an einer fehlenden Gruppenmitgliedschaft liegen. Normalerweise gibt es bereits einen Eintrag in der sudoers, der bewirkt, dass alle Mitglieder der Gruppe "sudo" auch den sudo-Befehl nutzen dürfen.
Default-Mäßig ist bei Debian gar kein sudo dabei, und ich meine die /etc/sudoers wäre auch standardmäßig leer. Da bin ich mir aber nicht ganz sicher.
...
Was Ubuntu angeht:
Bei Debian kann ich aber beim Start auch nicht zwischen root und user wählen. Ich kann mich nur mit meinem Benutzerkonto anmelden. Und bei der Installation von Debian wurde ich, anders als bei Ubuntu, nach zwei verschiedenen Passwörtern für Admin und User gefragt.
Nein, root ist in der Auswahlliste nicht dabei. Bei manchen Display-Managern kann man das einstellen, ist aber für gewöhnlich erstmal aus, und das ist auch gut so! Es ist nämlich aus mehreren (vor allem sicherheitstechnischen) Gründen nicht clever sich grafisch als root an zu melden. Wenn du mit root hantieren willst, dann im Terminal. Wenn du nicht weißt wie du mit dem Terminal um zu gehen hast, ist es auch gut, dass du nicht mit root arbeiten kannst :)
Auf einem Unix hat root DIE Macht. Für root gibt es keine Beschränkungen, keine Verbote, root kann alles, root darf alles. Man könnte fast sagen root ist Gott auf dem System. Das bringt viele Möglichkeiten mit sich, aber auch Verantwortung. In Kombination mit der Tatsache, dass Unix, anders als Windows, nicht fragt, sondern macht, folgt daraus, dass man als root auch besser weiß was man da tut.
Wenn du dich als root einloggst, brauchst du übrigens kein sudo ;)
Lukasweb
28.03.2013, 14:29
Also der genannte Eintrag ist nicht vorhanden. Lediglich:
root ALL=(ALL) ALL
Soll ich das Ganze dann unter root eintragen? Muss ich nicht davor noch einen Alias eintragen?
@foobar Was meinst du mit den Login auf der Textkonsole als root? Meinst du, dass ich Debian im Textmodus booten sollen?
@Lookbehind Wenn ich aber das root-Terminal starte, habe ich auch volle Macht in der GUI.
Soll ich das Ganze dann unter root eintragen? Muss ich nicht davor noch einen Alias eintragen?
Du kannst die von mir genannte Zeile als neue Zeile unten einfügen, ja. Nein, du brauchst keinen Alias. Das Prozentzeichen vor dem "sudo" sagt dem Programm, dass sich der Eintrag auf keinen Alias, sondern eine im System hinterlegte Unix-Gruppe bezieht. Im Zweifel einfach mal in die Manpage gucken, dafür sind die Dinger da ('man sudoers').
@foobar Was meinst du mit den Login auf der Textkonsole als root? Meinst du, dass ich Debian im Textmodus booten sollen?
Hmm... ok, offenbar weist du das nicht. Also: Bei Linux ist es nicht so wie bei Windows, so es nur eine gleichzeitige User-Session geben kann. Linux hat sogenannte virtuelle Terminals (abgekürzt VTs). Auf jedem davon kann eine Textkonsole laufen oder eine grafische Sitzung. Konvention ist, dass auf den Terminals 1-6 eine Textkonsole läuft und auf dem Terminal Nr. 7 die grafische Sitzung (wenn aktiv). Umgeschaltet wird zwischen diesen Terminals mit Strg + Alt + F-Zifferntaste. Mit Strg+Alt+F1 schaltest du also auf die erste Textkonsole und mit Strg+Alt+F7 zurück in die grafische Sitzung. EDIT: Es kann natürlich sein, dass diese Tastenkombinationen bei dir von der VM verschluckt werden. Da musst du ggf. mal in die Doku gucken, wie man das umgeht.
Man sich das vielleicht ganz grob vorstellen wie die Tabs bei modernen Browsern. Da kann auch jeder Tab eine andere Seite anzeigen und man kann bequem hin- und herschalten.
Das muss man zwar von Hand einrichten, aber man kann z.B. auch eine zweite GUI-Session auf VT 8 laufen lassen und dann dazwischen hin- und herschalten. Wenn man mal GNOME und KDE im direkten Vergleich haben will, beispielsweise. Ich mache das z.B. immer, wenn ich ein Spiel mit WINE starte. Meistens gibt es da Probleme, wenn man mit Alt+Tab raus will, um nebenbei mal nach den Mails zu sehen. Also starte ich das Spiel in einem zweiten X-Server auf VT 8 und kann bequem zwischen Spiel und Desktop hin- und herschalten. Und wenn das Spiel sich so verhakt, dass der X-Server abstürzt (kommt schon mal vor), bleibt meine Sitzung auf VT 7 unberührt (ist ja ein anderer X-Server-Prozess).
@Lookbehind Wenn ich aber das root-Terminal starte, habe ich auch volle Macht in der GUI.
Du hast sie nur in diesem Terminal (und natürlich erben alle von dort gestarteten Programme dann auch die Macht). Aber außerhalb davon bist du normaler User. Kannst du auch selber mal testen. Mache mal ein normales Terminalfenster und ein root-Terminal nebeneinander auf.
Dann setzt du den Befehl:
cat /etc/shadow
ab. Im Root-Terminal siehst du nun die gehashten Passwörter aller User, im User-Terminal sollte eine Fehlermeldung kommen (wenn nicht, stimmt was mit dem System nicht).
Lukasweb
28.03.2013, 19:46
Nein, so ganz so ist das bei mir nicht. Im User-Terminal kann ich zwar keine sudo-Befehle dann einfach ausführen, aber bei vielen Programmen, die ich danach starte, kommt ein Fenster, dass ich Admininstratorrechte ohne Nachfrage habe, z.b. bei den Softwarequellen.
Das liegt daran, dass das Passwort eine Zeit lang in einem Cache gehalten wird und dann nicht nochmal neu eingegeben werden muss, wenn wieder eine entsprechende Anfrage kommt.
Der Sinn der Passwort-Abfrage ist ja, dass sich das Ding vergewissern soll, ob wirklich immer noch der selbe User vor dem Schirm sitzt, der die Sitzung gestartet hat (er könnte ja auch weggegangen sein und nun sitzt ein anderer an dem Platz). Da aber kaum einer mitten in der Arbeit aufsteht und wegmarschiert, werden sudo-Befehle, die kurz nacheinander eingehen, nur einmal authentifiziert. Je nach Sicherheitsbedürfnis und Paranoia kann man das Timeout in der sudoers verlängern oder auf 0 setzen (kein Cache).
Im Detail läuft das über eine Datei unter /var/lib/sudo/username/, deren Zeitstempel ausgewertet wird. Weiteres erklärt die Manpage von sudo.
Lukasweb
30.03.2013, 15:49
Hättest du denn ein gutes Tutorial für das X Window System? Auf Ubuntuusers gibt es zwar einen Artikel, aber der geht praktisch nur über die xorg.conf. Wie das mit den verschiedenen Clients geht, steht da so nicht drinnen.
In der c´t hab ich auch gelesen (die mit dem Artikel hab ich wieder hervorgekramt), dass es da ja ein Nachfolgesystem Wayland geben soll. Lohnt es sich überhaupt, sich in das X Windows System reinzuarbeiten, wenn es evlt. eh abgelöst wird?
Lookbehind
30.03.2013, 15:59
...
In der c´t hab ich auch gelesen (die mit dem Artikel hab ich wieder hervorgekramt), dass es da ja ein Nachfolgesystem Wayland geben soll. Lohnt es sich überhaupt, sich in das X Windows System reinzuarbeiten, wenn es evlt. eh abgelöst wird?
Bis X wirklich vollständig abgelöst wird, dürfte es noch ein Weilchen dauern. Wayland ist noch lange nicht so weit, dass man es an Endbenutzer guten Gewissens ausliefern könnte. Für Leute die gerne experimentieren, und nicht gleich in Panik ausbrechen wenn der Bildschirm mit mal ganz schwarz bleibt, ist das aber durchaus mal was zum ausprobieren.
Canonical hat kürzlich auch angekündigt ein eigenes Window-System entwickeln zu wollen. MIR (http://ikhaya.ubuntuusers.de/2013/03/05/hoch-hinaus-canonical-startet-mir/) soll das Ding heißen. Was daraus wird, bleibt ab zu warten. Wäre nicht das erste mal, dass Canonical sowas großes ankündigt, und dann doch wieder nen Rückzieher macht. Andererseits haben sie mit Unity auch schon bewiesen, dass sie auch eigene Wege gehen könne.
Aber wie gesagt, bis das alles Marktreif ist, fließt noch ein wenig Wasser den Rhein herunter.
Hättest du denn ein gutes Tutorial für das X Window System?
Kannst du das präzisieren? Was genau möchtest du denn wissen?
Im Zweifel würde ich mal hiermit (http://tldp.org/HOWTO/XWindow-Overview-HOWTO/index.html) anfangen.
Was den Rest angeht, da hat Lookbehind Recht. Linux entwickelt sich nun mal ständig weiter und das auch schneller. Klassische OS-Hersteller investieren große Summen in die Entwicklung einer neuen Version und wollen die dann natürlich möglichst lange melken, bevor sie sie ablösen. Linux hat das Problem nicht, weshalb es sich schneller entwickelt. Da es auch nicht hinter verschlossenen Türen entwickelt wird und nicht unter der Kontrolle einer Firma steht, gibt es auch mitunter verschiedene Ideen und Ansätze und man kann nicht immer sagen, welche davon sich am Ende durchsetzen wird.
Ein anderes Beispiel dazu ist der Init-Prozess. Früher war das immer ein klassischer SysVinit. Der wurde irgendwann zu unflexibel und Canonical hat dann Upstart entwickelt. Das wird auch aktuell immer noch dort verwendet, aber inzwischen gibt es auch SystemD, welches technisch deutlich eleganter ist und sich hoffentlich durchsetzen wird. Da muss man halt mit leben, dass man alles, was man jetzt über Upstart lernt, evtl. in ein paar Jahren nicht mehr braucht.
Muss man halt immer am Ball bleiben.
Lukasweb
30.03.2013, 17:07
Kannst du das präzisieren? Was genau möchtest du denn wissen?
Es ging mir eigentlich um die Sache mit den Clients und die Nutzung mehrer VTs. Ich kann ja verschiedene Reiter in einem Terminalfenster öffnen, hat das was damit zu tun?
Lookbehind
30.03.2013, 18:13
...
Ich kann ja verschiedene Reiter in einem Terminalfenster öffnen, hat das was damit zu tun?
Nein, das läuft ja immernoch alles in der gleichen X-Session ab. Dein Terminal-Fenster ist eben nur ein Teil eines Virtuellen Terminals. Die anderen erreichst du über [STRG] + [ALT] + [F1]-[F6]. Mit [ALT] + [F7] kommst du wieder zurück zu dem VT auf dem die X-Session, und somit deine grafische Oberfläche, läuft. Generell wechselt man zwischen den VTs mit [ALT] + [Fx], einzige Ausnahme: Läuft auf dem VT auf dem man sich grade befindet eine X-Session, muss man [STRG] dazu nehmen. Das wurde eingeführt, weil man in einer GUI auch so öfter mal Tastenkombinationen von [ALT] + [Fx] brauchen kann ;)
Was foobar meint ist, dass er nicht nur auf tty7 (Also [ALT] + [F7]) eine GUI laufen hat, sondern auch auf einem anderen tty.
Ein Tutorial kenne ich nicht. Wenn man halt die Grundlagen versteht (siehe o.g. Link), lässt sich das von selbst ableiten.
In Kurzform:
Installiere erstmal eine alternative GUI. Sagen wir mal "fluxbox" (ein schlanker und schneller Window Manager).
Erstelle eine ~/.xinitrc und schreibe da rein:
# Pfad ggf. anpassen
exec /usr/bin/fluxbox
Wechsle auf eine Textkonsole
Melde dich dort an
Gib ein:
startx -- :1
Dann müsste ein zweiter X-Server mit Fluxbox drinnen hochfahren. Normalerweise auf VT8, so dass man mit Strg+Alt+F7/F8 hin- und herschalten kann.
Einen permanent laufenden, zweiten DM aufsetzen (also dass man sich den Umweg über die Textkonsole sparen kann), geht auch, erfordert aber mehr Arbeit.
Lesetipps:
http://tldp.org/HOWTO/XWindow-Overview-HOWTO/index.html
'man xinit'
'man startx'
'man X'
Lukasweb
31.03.2013, 22:04
Wenn ich Fluxbox installiere, tritt folgender Fehler auf:
Fehl http://http.us.debian.org/debian/ squeeze/main libimlib2 amd64 1.4.2-8+b2
Beim Auflösen von »http.us.debian.org:http« ist etwas Schlimmes passiert (-5 - Zu diesem Hostnamen gehört keine Adresse)
Fehl ftp://ftp.de.debian.org/debian/ squeeze/main libimlib2 amd64 1.4.2-8+b2
Beim Auflösen von »ftp.de.debian.org:ftp« ist etwas Schlimmes passiert (-5 - Zu diesem Hostnamen gehört keine Adresse)
Fehl ftp://ftp.de.debian.org/debian/ squeeze/main fluxbox amd64 1.1.1+dfsg2-1
Beim Auflösen von »ftp.de.debian.org:ftp« ist etwas Schlimmes passiert (-5 - Zu diesem Hostnamen gehört keine Adresse)
Fehl ftp://ftp.de.debian.org/debian/ squeeze/main xfonts-terminus all 4.30-2
Beim Auflösen von »ftp.de.debian.org:ftp« ist etwas Schlimmes passiert (-5 - Zu diesem Hostnamen gehört keine Adresse)
Fehlschlag beim Holen von ftp://ftp.de.debian.org/debian/pool/main/i/imlib2/libimlib2_1.4.2-8+b2_amd64.deb Beim Auflösen von »ftp.de.debian.org:ftp« ist etwas Schlimmes passiert (-5 - Zu diesem Hostnamen gehört keine Adresse)
Fehlschlag beim Holen von ftp://ftp.de.debian.org/debian/pool/main/f/fluxbox/fluxbox_1.1.1+dfsg2-1_amd64.deb Beim Auflösen von »ftp.de.debian.org:ftp« ist etwas Schlimmes passiert (-5 - Zu diesem Hostnamen gehört keine Adresse)
Fehlschlag beim Holen von ftp://ftp.de.debian.org/debian/pool/main/x/xfonts-terminus/xfonts-terminus_4.30-2_all.deb Beim Auflösen von »ftp.de.debian.org:ftp« ist etwas Schlimmes passiert (-5 - Zu diesem Hostnamen gehört keine Adresse)
E: Einige Archive konnten nicht heruntergeladen werden; vielleicht »apt-get update« ausführen oder mit »--fix-missing« probieren?
Außerdem kommt es bei den Interaktion, wie schon gesagt, sehr oft zu Problemen. Soll ich das Teil mal neuinstallieren (also Debian). Komischerweise kann ich jetzt auch ich normalen Terminal sudo ausführen, ohne visudo.txt geändert zu haben. Evtl. hängt das aber auch noch mit den Rootrechten des Root-Terminals zusammen. Anscheinend gelten diese 15 Minuten nur für die Zeit, in der die VM an ist. Ich habe sie nämlich seit zwei Tagen nicht mehr benutzt, trotzdem kann ich noch ohne Passwortnachfrage das Root-Terminal starten.
Du bist hier nicht unter Windows, den Vorschlaghammer kannst du in der Kiste lassen. ;)
Klar, du kannst alles plattmachen und neu anfangen. Du kannst das Problem aber auch diagnostieren, beheben und dabei vielleicht am Ende noch was lernen.
Diagnoseschritte (ich gehe im Folgenden von Bridged-Networking für die VM aus, da das die sinnvollste Einstellung ist):
Geht überhaupt das Netzwerk in der VM (ping an localhost und die IP-Adresse der VM)? Wenn nicht, woran kann es liegen? Ist das Interface oben? Ist eine IP-Adresse zugewiesen? Treiber geladen?
Geht IP aus der VM heraus (ping an IP-Adresse des Hosts)? Wenn nicht, woran kann es liegen? Sind Wirt und Gast im selben Subnetz und sind Routen und Gateways richtig gesetzt? Wo klemmt's beim Traceroute? Ist vielleicht ein Paketfilter im Weg?
Geht manuelle DNS-Abfrage? Welcher Nameserver ist im Linux eingestellt und kann man den erreichen? Wo klemmt's beim Traceroute? Ist vielleicht ein Paketfilter im Weg?
Wohlgemerkt, das sind jetzt keine Fragen, die du mir beantworten sollst. Das sind die Fragen, die du dir selbst stellen solltest und die dir helfen, die Ursache für das Problem einzugrenzen.
Lukasweb
01.04.2013, 20:32
Ping an localhost, aus der VM an den Host ging, aber dann merkte ich, dass alles nach außen ein Problem war. Der Grund, dass ich das noch nicht bemerkt habe davor ist, dass ich die VM nur zu Testzwecken habe und damit nicht surfe. Er hat sich komischerweise, obwohl der PC per LAN mit dem Router verbunden ist, nicht automatisch mit dem Netzwerk verbunden. Erst nachdem ich das selber durch Klicken auf auto eth0 gemacht habe, hat er sich verbunden. Wenn ich mich recht erinnere, hat er sich früher automatisch verbunden und mein Ubuntu macht das ja auch. Ich habe in der Zeit lediglich den mal VMware Authorization Service und den VMware USB Authorization Service per msconfig aus der Liste der automatisch gestarteten Dienste genommen. Als ich aber dann merkte, dass der VMware Player ersteren Dienst beim Start nicht selber startet, habe ich in wieder reingenommen (diesmal aber über das Programm "Dienste"). Dort steht er jetzt auf "Automatisch". Allerdings ist jetzt der Haken in msconfig nicht wieder gesetzt. Macht das einen Unterschied?
Der VMware USB Authorization Service ist anscheinend nur für USB da, das brauch ich in der VM nicht, also hab ich den deaktiviert gelassen.
Was die Netzwerkverbindung der VM angeht:
Der VMware Player hat einen eigenen Netzwerkadapter eingerichtet, wenn ich rechts unten in der Taskleiste auf die Netzwerkverbindungen gehe, kommt da neben dem Heimnetzwerk noch ein "Nicht identifiziertes Netzwerk" ohne Internetzugriff. Das gehört scheinbar zur VM. Außerdem sind im Taskmanager im Reiter drei Netzwerkadapter. Neben dem normalen noch der VMware Network Adapter VMnet1 und der VMware Network Adapter VMnet8.
Was den DNS-Server angeht:
In der etc\resolv.conf steht:
# Generated by NetworkManager
domain localdomain
search localdomain
nameserver 192.168.67.2
Die IP-Adresse des DNS-Servers hier ist mir nicht bekannt, es ist weder die IP des Hosts, noch die der VM selber, noch die des Routers.
Als ich keine Netzwerkverbindung hatte, stand in der resolv.conf außer der ersten Zeile übrigens gar nichts.
Ich habe VMware jetzt nicht mehr im Kopf, aber es sieht so aus, als hättest du zwischen VM und Host ein neues virtuelles LAN aufgespannt, das die VM eigentlich via NAT nach außen (also ins echte LAN) routen sollte. Ist ein komplizierteres Setup und für deinen Fall völlig unnötig. Eigentlich kannst du alle Netzwerkadapter bis auf einen entfernen, den auf Bridged umstellen und dann via DHCP from Router ganz normal eine Adresse beziehen. Dann verhält sich die VM wie ein weiterer Rechner im LAN, nicht wie einer, der in einem eigenen Subnetz eingesperrt ist. Das macht (gerade am Anfang) vieles einfacher.
Lukasweb
02.04.2013, 17:50
Ich hab einfach die zwei Netzwerkadapter deaktiviert. Beim anderen musste ich nichts umstellen. Nur aus Interesse: Wo könnte ich den auf Bridged stellen? Vermutlich im Gerätemanager, aber die genaue Option wüsste ich nicht.
Nun klappt passierte mir aber schon zum xten Mal, dass er die Maus fixiert hat, z.B. lässt er die Scrollbar nicht mehr los, wenn ich sie anklicke. Das Gleiche passiert mir, wenn ich ein Fenster verschiebe. Dann bleibt nur noch die Möglichkeit, die rechte Maustaste zu drücken. Dann öffnet er das Kontextmenu, man kann aber nichts anklicken. Mit Rechtsklick ist es wieder zu, aber das System ist praktisch unbedienbar. Es leuchten zwar manche Buttons auf, aber anklicken kann man sie nicht. Dann bleibt nur noch Neustarten.
Jetzt gehts aber wieder nach Aktualisierung der VMware Tools. Allerdings brauchte ich tausend Neuanläufe, da ich wegen den oben genannten Problemen öfters neustarten musste.
Auf Bridged umstellen musst du in der VMware.
Im Zweifel mal die Doku lesen: http://www.vmware.com/support/ws55/doc/ws_net_configurations_changing_bridged_windows.html
Lukasweb
02.04.2013, 20:32
Geht bei mir aber völlig anders, da ich den vmware Player habe. Die Funktion habe ich jetzt aber gefunden. Im Moment ist es auf NAT gestellt. So funktioniert es auch. Laut Beschreibung hat der Gast dann die selbe IP-Adresse wie der Host.
Jetzt weiß ich natürlich ich nicht, welcher Befehl hinter dem Menüeintrag bei Debian steht.
gksu /usr/bin/xterm.
Und wie schaffe ich es eigentlich, durch das Root-Terminal erworbene Administratorrechte wieder zu verlieren? "exit" bringt bei mir nichts.
Wenn Du Dir die Rootkonsole über über den Menüpunkt Zubehör holst gar nicht, da das Programm direkt mit gksu aufgerufen wird. Noch ein Tipp; graphische Programme mit Rootrechten werden mit gksu aufgerufen und nicht einfach über ein Terminal.
Bevor Du die Datei /etc/sudoers bearbeitest. Soweit ich im Kopf habe sollte dies nur mit dem Editor visudo gemacht werden.
§wink Taomon
Noch ein Tipp; graphische Programme mit Rootrechten werden mit gksu aufgerufen und nicht einfach über ein Terminal.
gksu macht auch nichts anderes als das Terminal. Es wird halt eine Shell mit root-Rechten gestartet, die dann das Kommando ausführt. Das ist gehüpft wie gesprungen.
Der Vorteil des Terminals ist allerdings, dass man stderr und stdout sehen kann, auf denen manchmal (auch bei grafischen Programmen) interessante Informationen ausgegeben werden (speziell bei Problemen).
Lookbehind
03.04.2013, 17:49
gksu macht auch nichts anderes als das Terminal. Es wird halt eine Shell mit root-Rechten gestartet, die dann das Kommando ausführt. Das ist gehüpft wie gesprungen.
Der Vorteil des Terminals ist allerdings, dass man stderr und stdout sehen kann, auf denen manchmal (auch bei grafischen Programmen) interessante Informationen ausgegeben werden (speziell bei Problemen).
Nein, gksu entkoppelt das Programm selbst, von dem was es macht. In der Regel braucht man die Root-Rechte ja nicht um zum Beispiel gEdit zu starten, sondern um damit eine entsprechende Datei bearbeiten zu können.
Der entscheidende Unterschied? angenommen du öffnest eine Config-Datei in /etc mit sudo gedit /etc/meine/wichtige/datei.conf dann stellst du plötzlich fest, dass dir der Zeilenumbruch von gEdit grade im weg ist, gehst auf Bearbeiten => Einstellungen und machst den Haken bei Zeilenumbruch weg. Dabei ändert gEdit die zugehörige Konfigurationsdatei von gEdit. Da du gEdit mit sudo gestartet hast, arbeitet gEdit mit root-Rechten, und zwar auch in der Konfigurations-Datei von gEdit. Nachdem du dann mit deinem Kram fertig bist, machst du gEdit wieder zu, die root-Rechte verfallen und du denkst nicht mehr dran. 2 Tage später willst du deine Einkaufsliste in gEdit schreiben (macht ja schließlich jeder so §ugly), dafür brauchst du freilich kein root, also einfach nur gEdit öffnen und... oh.. wie sieht das denn aus? Alle Einstellungen wieder auf default? Warum das denn? Und warum kannst du das nur temporär ändern? Naja, weil die Besitzrechte an der Config-Datei von gEdit bei deiner sudo-Aktion mal eben auf root über gegangen sind.
DAS passiert dir mit gksu bzw gksudo nicht.
Ich glaube, das hat nichts mit Terminal vs. gksu zu tun.
Was du vermutlich meinst, ist der normale Unterschied zwischen Shell-Umgebungen. Bei 'sudo <command>' läuft das Programm mit root-Rechten in der Benutzerumgebung, also mit dessen $HOME. Was gksu offensichtlich macht, ist, dass die Umgebung des Users root übernimmt. In deinem Beispiel würde gedit also die Konfiguration nicht unter /home/username/.config/.gedit, sondern unter /root/.config/gedit ablegen. Den gleichen Effekt kann ich aber auch im Terminal haben, indem ich 'su' benutze. Oder mit dem Parameter '-p' die alte Umgebung behalte, dann verhält es sich wie 'sudo'. Umgekehrt kann sich 'gksu' auch wie 'sudo' verhalten (unter "Erweitert" kann man sagen, dass man die Umgebung behalten möchte).
Im Falle von gedit würde beim Einsatz in der root-Umgebung (die gksu-Variante) die Konfiguration also auch nur für den User root gelten. Der normale User findet sie in seinem normalen gedit nicht wieder. Umgekehrt wirken als User vorgenommene Einstellungen nicht bei per 'gksu' gestarteten Instanzen. Man muss gedit also zweimal an die eigenen Vorlieben anpassen: Einmal als root und einmal als User.
Läuft es in der User-Umgebung, dann gelten die Einstellungen in gedit auch für diesen User. Wenn er gedit also einmal nach seinen Vorlieben richtig konfiguriert hat, dann findet er sie sowohl im normalen als auch im per 'sudo' gestarteten gedit wieder. Man muss es nur einmal richtig einstellen und gemachte Änderungen wirken stets auf beide Varianten. Das einzige potentielle Problem ist der Fall, wenn man es zum ersten Mal startet und die Konfigurationsdateien angelegt werden. Wenn das als root (aber nicht in dessen Umgebung) passiert, legt es die Konfigurationdateien dann im Userhome an, setzt den Eigentümer aber auf root. Und bei den üblichen Rechten (644) kann der User dann später die Einstellungen nicht mehr abspeichern, weil ihm die Rechte fehlen. Lässt sich aber mit einem einfach 'chown' korrigieren und danach passiert es dann auch nicht mehr (beim Bearbeiten vorhandender Dateien ändert sich der Eigentümer nicht). Im Idealfall schaltet der Distributor bzw. Admin das Problem bereits im Vorfeld aus, indem er vorab /etc/skel mit passenden Dateien für die Standardkonfiguration bevölkert. Dann merkt der User gar nichts davon.
EDIT: Gerade mal getestet (Kubuntu 12.10):
$ gksu env 2>&1 | grep ^HOME
HOME=/root
$ sudo env | grep ^HOME
HOME=/home/user
$ su -c env | grep ^HOME
Passwort:
HOME=/root
$ su -c env - | grep ^HOME
Passwort:
HOME=/root
$ su -p -c env | grep ^HOME
Passwort:
HOME=/home/user
Lukasweb
04.04.2013, 20:51
Ich habe jetzt mal das mit dem X-Server getestet. Leider startet aber nicht fluxbox, sondern es erscheint ein komplett schwarzer Bildschirm mit einem weißen Strich oben. Man kann aber schreiben drinnen. Umschalten funktioniert aber nicht.
Lukasweb
05.04.2013, 20:49
Jetzt hats funktioniert, aber leider startet als zweiter VT keine Fluxbox, sondern ein weiterer Gnome-Desktop. Außerdem meldet er sich standardmäßig als root an. Der Grund dafür ist wohl, dass ich startx mit sudo dafür aufgerufen habe. Anders ging es aber nicht. Ansonsten kommt:
X: user not authorized to run the X server, aborting.
Lookbehind
05.04.2013, 20:59
Einen kompletten Desktop als root starten ist aus mehreren Gründen (nicht zuletzt Gründe der Sicherheit) ein absolutes NoGo! Solltest du möglichst nicht machen ;)
Warum das nicht klappt sagt dir die Fehlermeldung aber auch recht deutlich. Ein wichtiger Schritt im Umgang mit Unix, oder generell mit Computern ist, Fehlermeldungen aufmerksam lesen und interpretieren zu können. Wobei interpretieren heute oft auf sowas simples wie "kopieren und bei Google einfügen" reduziert werden kann.
Lukasweb
05.04.2013, 21:27
Ich dachte ja zuerst, dass man diesen Befehl nur als root ausführen kann und ein normaler User dazu keine Berechtigung hat, so habe ich es interpretiert. ;)
Da dem nun scheinbar nicht so ist, werde ich mich mal etwas googeln, wie man dem User die Berechtigung verschaffen kann...
Lookbehind
05.04.2013, 21:31
Ich dachte ja zuerst, dass man diesen Befehl nur als root ausführen kann und ein normaler User dazu keine Berechtigung hat, so habe ich es interpretiert. ;)
...
Vielleicht stellst du dir mal die Frage, wie es dann sein kann, dass du als nicht root-User eine grafische Oberfläche hast ;)
Lukasweb
06.04.2013, 11:58
Nach längerer Recherche hab ich es über "dpkg-reconfigure x11-common" bzw. "/etc/X11/Xwrapper.config" ändern können. Jetzt kann jeder Konsolenbenutzer startx ausführen. Allerdings funktioniert das nur, wenn ich per Strg + Alt auf eine Textkonsole umschalte. Auf dem normalen VT im Terminal funktioniert es nicht. Stellt es irgendein Sicherheitsrisiko dar, wenn ich "allowed_users" auf "anybody" ändere?
Übrigens habe ich jetzt schon wieder das Problem, dass mein Mauszeiger manchmal nicht mehr richtig will, obwohl das jetzt scheinbar behoben war, nachdem ich die VMware Tools installiert habe. Im Moment (bevor ich sie nicht neustarte) ist sowohl die Fluxbox-VT, als auch die Gnome-VT unbenutzbar, da ich die Fenster im Vordergrund nicht mehr loslassen kann. Scheinbar liegt das daran, dass er nicht mehr auf Eingaben über die rechte Maustaste reagiert. Habt ihr da eine Idee? Höchstwahrscheinlich ist das aber ein Problem mit dem VMware Player.
Lookbehind
06.04.2013, 12:13
Nach längerer Recherche hab ich es über "dpkg-reconfigure x11-common" bzw. "/etc/X11/Xwrapper.config" ändern können. Jetzt kann jeder Konsolenbenutzer startx ausführen.
Wäre nicht nötig gewesen, aber so funktioniert es auch, ja.
Allerdings funktioniert das nur, wenn ich per Strg + Alt auf eine Textkonsole umschalte. Auf dem normalen VT im Terminal funktioniert es nicht.
Klar musst du auf ein tty wechseln. Oder wolltest du eine X-Session in einer X-Session starten?
Stellt es irgendein Sicherheitsrisiko dar, wenn ich "allowed_users" auf "anybody" ändere?
Kommt darauf an wer alles Zugriff auf das System hat. Und auf welchem Weg.
Übrigens habe ich jetzt schon wieder das Problem, dass mein Mauszeiger manchmal nicht mehr richtig will, obwohl das jetzt scheinbar behoben war, nachdem ich die VMware Tools installiert habe. Im Moment (bevor ich sie nicht neustarte) ist sowohl die Fluxbox-VT, als auch die Gnome-VT unbenutzbar, da ich die Fenster im Vordergrund nicht mehr loslassen kann. Scheinbar liegt das daran, dass er nicht mehr auf Eingaben über die rechte Maustaste reagiert. Habt ihr da eine Idee? Höchstwahrscheinlich ist das aber ein Problem mit dem VMware Player.
Ich vermute auch, dass es an der Virtualisierung liegt, die dann wahrscheinlich irgendwann die Maus-Events nicht mehr an das virtualisierte System weiter reicht. Warum? :dnuhr:
Lukasweb
06.04.2013, 13:32
Klar musst du auf ein tty wechseln. Oder wolltest du eine X-Session in einer X-Session starten?
Das ist, denke ich, nicht der Grund. Denn es kommt wieder die Meldung "User is not ...". Wenn ich auf anybody umstelle, sollte sich das auch erledigen. Außerdem wird, wenn ich diesen Befehl z.B. in VT6 eingebe, Fluxbox in VT8 gestartet.
Lookbehind
06.04.2013, 13:48
Das ist, denke ich, nicht der Grund. Denn es kommt wieder die Meldung "User is not ...". Wenn ich auf anybody umstelle, sollte sich das auch erledigen.
Naja, wie bereits erwähnt, sollte das eigentlich gar nicht nötig sein. In der Standard-Version kannst du ja auch eine X-Session benutzen, ohne root zu sein, und ohne die Rechte an zu passen, oder? Ich geb dir n Tipp: Display-Manager ;)
Außerdem wird, wenn ich diesen Befehl z.B. in VT6 eingebe, Fluxbox in VT8 gestartet.
Its not a bug, its a feature!
Lukasweb
07.04.2013, 14:40
Ich hab mich ja noch nicht so mit X-Sessions beschäftigt. Deshalb weiß ich jetzt nicht ganz, worauf du hinaus willst. Eigentlich starte ich ja bei jedem Systemstart eine X-Session, aber hier geht es ja darum, eine weitere grafische zu starten.
Übrigens habe ich ein Problem mit Mint, oder eigentlich zwei:
1. Im Auswahlmenu ist die Option Full HD nicht vorhanden. Ich habe schon öfters die Option per xrandr hinzugefügt, aber beim nächsten Systemstart ist die dann immer wieder weg und eine andere Auflösung ist stattdessen eingestellt.
2. Es kommt nach dem Start und auch während dem Betrieb oft die Meldung:
Einhängen von Floppy Disk nicht möglich.
In diesem System gibt es eine solche gar nicht. Ich habe die Funktion auch schon über den Player ausgeschaltet, aber das hat nichts geholfen.
Lookbehind
07.04.2013, 14:58
Ich hab mich ja noch nicht so mit X-Sessions beschäftigt.
*Jedi-Handbewegung mach*
Das willst du nachholen.
...
Übrigens habe ich ein Problem mit Mint, oder eigentlich zwei:
1. Im Auswahlmenu ist die Option Full HD nicht vorhanden. Ich habe schon öfters die Option per xrandr hinzugefügt, aber beim nächsten Systemstart ist die dann immer wieder weg und eine andere Auflösung ist stattdessen eingestellt.
Redest du von der Desktop-Auflösung? Steht da wirklich "Full HD"? Normal steht dann da eher die Auflösung selbst. Also 1920x1080.
Wieviel Grafik-Speicher gibtst du der virtuellen Grafikkarte? Damit bestimmte Auflösungen nativ möglich sind, muss die GraKa genug Speicher haben.
Ein Würgaround wäre, sich den passenden xrandr-Befehl einfach in den Autostart zu schmeißen :D
2. Es kommt nach dem Start und auch während dem Betrieb oft die Meldung:
Einhängen von Floppy Disk nicht möglich.
In diesem System gibt es eine solche gar nicht. Ich habe die Funktion auch schon über den Player ausgeschaltet, aber das hat nichts geholfen.
Aber während du das System installiert hast, war die Floppy-Disk noch eingeschaltet, hm?
Dein System glaubt noch, da müsse eine Floppy sein, und versucht die ein zu hängen, was natürlich schief geht, wenn keine Floppy da ist.
Du willst dich mit der /etc/fstab beschäftigen. *Jedi Handbewegung*
Lukasweb
09.04.2013, 19:34
So sieht die fstab bei mir aus:
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point> <type> <options> <dump> <pass>
proc /proc proc nodev,noexec,nosuid 0 0
# / was on /dev/sda1 during installation
UUID=d71543ff-ea88-4611-bec2-6f29928a6016 / ext4 errors=remount-ro 0 1
# swap was on /dev/sda5 during installation
UUID=4623f2f4-fcba-42ff-a3f1-ff402413e3c9 none swap sw 0 0
/dev/fd0 /media/floppy0 auto rw,user,noauto,exec,utf8 0 0
Die letzte Zeile hab ich jetzt einfach mal auskommentiert, da das ja das Diskettenlaufwerk betrifft. Hat nur leider nichts gebracht. Die genaue Fehlermeldung sieht übrigens so aus:
Error mounting /dev/fd0 at /media/lukas/disk: Command-line `mount -t "auto" -o "uhelper=udisks2,nodev,nosuid" "/dev/fd0" "/media/[Benutzername]/disk"' exited with non-zero exit status 32: mount: /dev/fd0 is not a valid block device
Zur Auflösung:
Nein, im Menu steht natürlich nicht Full HD, sonder 1920 x 1080. Was Autostarts angeht, muss ich mich da auch noch mal genauer beschäftigen, soweit ich weiß, muss man das Skript in einen bestimmten init.d-Ordner schieben und dann noch irgendeinen Link/Verweis erstellen.
Lookbehind
09.04.2013, 20:35
So sieht die fstab bei mir aus:
Die letzte Zeile hab ich jetzt einfach mal auskommentiert, da das ja das Diskettenlaufwerk betrifft. Hat nur leider nichts gebracht. Die genaue Fehlermeldung sieht übrigens so aus:
Error mounting /dev/fd0 at /media/lukas/disk: Command-line `mount -t "auto" -o "uhelper=udisks2,nodev,nosuid" "/dev/fd0" "/media/[Benutzername]/disk"' exited with non-zero exit status 32: mount: /dev/fd0 is not a valid block device
Hm, wann und wo kommt das?
Zur Auflösung:
Nein, im Menu steht natürlich nicht Full HD, sonder 1920 x 1080. Was Autostarts angeht, muss ich mich da auch noch mal genauer beschäftigen, soweit ich weiß, muss man das Skript in einen bestimmten init.d-Ordner schieben und dann noch irgendeinen Link/Verweis erstellen.
DAS ist der falsche Autostart ;)
Der Autostart den ich meine, ist viel einfacher zu erreichen und erfordert auch längst nicht so viel Einarbeitungszeit. In der Regel ist er Teil der Desktop-Umgebung.
Lukasweb
10.04.2013, 16:58
Die Meldung kommt immer beim Start und auch öfters während des Betriebs.
Zum Autostart:
Meinst du diesen hier?
http://wiki.ubuntuusers.de/Autostart
Die Meldung kommt immer beim Start und auch öfters während des Betriebs.
Genauer wissen will§$p5 Start; bedeutet das beim booten oder wenn die Desktopumgebung auf gebaut wird. Leg doch bitte mal einen Testuser an. Damit wissen wir ob es ein Fehler in der Systemkonfiguration oder in Deinem Homeverzeichnis ist.
Zum Autostart:
Meinst du diesen hier?
http://wiki.ubuntuusers.de/Autostart Genau richtig:gratz
Tschüß Taomon
Lukasweb
11.04.2013, 16:17
Beim Erscheinen des Desktops. ;)
Und beim Testaccount ist es das Gleiche.
Nachdem ich mich jetzt mal an ein Skript gemacht haben, bekomme ich beim Ausführen folgenden Fehler (Dateiname "definition.sh"):
bash: ./definition.sh: Permission denied
Das Skript sieht so aus:
#!/bin/bash
xrandr --newmode "1920x1080_60.00" 173.00 1920 2048 2248 2576 1080 1083 1088 1120 -hsync +vsync
xrandr --addmode Virtual1 "1920x1080_60.00"
xrandr --output
chmod -x habe ich auch schon ausgeführt dafür.
Nachdem ich mich jetzt mal an ein Skript gemacht haben, bekomme ich beim Ausführen folgenden Fehler (Dateiname "definition.sh"):
bash: ./definition.sh: Permission denied
Das wundert mich gar nicht:
chmod -x habe ich auch schon ausgeführt dafür.
Aus der Manpage von chmod: „The operator + causes the selected file mode bits to be added to the existing file mode bits of each file; - causes them to be removed”
Was passiert also, wenn du »chmod -x <dateiname>« eingibst?
Beim Erscheinen des Desktops. ;)
Und beim Testaccount ist es das Gleiche.
Okay, das liegt wohl an udisk2. Da ich Mint nicht habe kann ich Dir nur einen Link anbieten.
//windycitytech.blogspot.de/2012/12/caja-mint-14-mounting-mediauser-udisks2.html
Gruß Taomon :)
Lukasweb
12.04.2013, 17:43
@foobar Oh, das plus habe ich in dem entsprechenden Ubuntuusers-Artikel überlesen. :D
Dann habe ich es automatisch so gemacht, weil bisher alle Paramter, die mir unterkamen, einen Strich oder einen doppelten Strich davor hatten.
Wenn ich jetzt diesen Skript ausführe, kommt dieser Fehler:
#X Error of failed request: BadName (named color or font does not exist)
Major opcode of failed request: 141 (RANDR)
Minor opcode of failed request: 16 (RRCreateMode)
Serial number of failed request: 55
Current serial number in output stream: 55
usage: xrandr [options]
where options are:
-display <display> or -d <display>
-help
-o <normal,inverted,left,right,0,1,2,3>
or --orientation <normal,inverted,left,right,0,1,2,3>
-q or --query
-s <size>/<width>x<height> or --size <size>/<width>x<height>
-r <rate> or --rate <rate> or --refresh <rate>
-v or --version
-x (reflect in x)
-y (reflect in y)
--screen <screen>
--verbose
--current
--dryrun
--nograb
--prop or --properties
--fb <width>x<height>
--fbmm <width>x<height>
--dpi <dpi>/<output>
--output <output>
--auto
--mode <mode>
--preferred
--pos <x>x<y>
--rate <rate> or --refresh <rate>
--reflect normal,x,y,xy
--rotate normal,inverted,left,right
--left-of <output>
--right-of <output>
--above <output>
--below <output>
--same-as <output>
--set <property> <value>
--scale <x>x<y>
--scale-from <w>x<h>
--transform <a>,<b>,<c>,<d>,<e>,<f>,<g>,<h>,<i>
--off
--crtc <crtc>
--panning <w>x<h>[+<x>+<y>[/<track:w>x<h>+<x>+<y>[/<border:l>/<t>/<r>/<b>]]]
--gamma <r>:<g>:<b>
--primary
--noprimary
--newmode <name> <clock MHz>
<hdisp> <hsync-start> <hsync-end> <htotal>
<vdisp> <vsync-start> <vsync-end> <vtotal>
[flags...]
Valid flags: +HSync -HSync +VSync -VSync
+CSync -CSync CSync Interlace DoubleScan
--rmmode <name>
--addmode <output> <name>
--delmode <output> <name>
--listproviders
--setprovideroutputsource <prov-xid> <source-xid>
--setprovideroffloadsink <prov-xid> <sink-xid>
Vermutlich hängt das mit den Befehlen "xrandr --newmode..." und "xrandr --addmode..." zusammen, da diese Optionen schon eingetragen sind. Allerdings werden sie bei jedem Neustart gelöscht. Also muss ich das Skript jetzt in den Autostart schreiben. Unter Mint ist es unter Startprogramme über den Button "Add" möglich, einen Eintrag hinzuzufügen. Kann ich da einfach unter Befehl den Pfad des Skripts eintragen? Das hat nämlich nicht ganz geklappt, aber immerhin war nun nach dem Start der Eintrag 1920x1080 in den Bildschirmauflösungen.
Nun habe ich noch einige Fragen unabhängig davon allgemein zu Linux:
Was spricht eigentlich dafür, eine Distribution wie Arch Linux oder Gentoo zu verwenden, wo jegliche Konfiguration über die Shell geschieht? Bei letzterem müssen, soweit ich weiß, bei der Installation auch sämtliche Pakete einzeln installiert werden. Ist dabei wirklich das Argument, man hätte ein schlankeres und angepassteres System, entscheiden? In der heutigen Zeit sind ja genug Ressourcen übrig. Oder spielt für Benutzer eher gerade die Unzugänglichkeit dieser Distrubutionen eine Rolle? Also praktisch, weil es ihnen Spaß macht.
Inwiefern unterscheiden sich eigentlich die Distributionen Mint und Ubuntu abgesehen von der Standard-Oberfläche? Zwischen Ubuntu und Debian habe ich (wenn ich jetzt mal Ubuntu mit Gnome 2 zum Vergleich heranziehe) auch keine großen Unterschiede feststellen können, abgesehen von den Problemen, die ich mit Debian hätte. Trotzdem heißt es, dass Debian
deutlich anspruchsvoller sein wäre.
Ich würde übrigens gerne eine vierte Distribution in einer weiteren VM installieren, wie die anderen zu Testzwecken. Diesmal soll es eine einer anderen Art werden. Würdet ihr mir dazu eher OpenSuse oder Fedora empfehelen? Oder vielleicht die Hardcore-Variante und Gentoo oder Arch? Vielleicht habt ihr auch noch andere zu empfehlen.;)
Nun habe ich noch einige Fragen unabhängig davon allgemein zu Linux:
Was spricht eigentlich dafür, eine Distribution wie Arch Linux oder Gentoo zu verwenden, wo jegliche Konfiguration über die Shell geschieht?
Jede Distri hat andere Schwerpunkte und Einsatzgebiete. Gentoo ist eigentlich als Metadistribution gedacht, kann aber auch direkt eingesetzt werden. Macht aber für den normalen Desktop-User wenig Sinn, weil erst alles kompiliert werden muss, bevor man es benutzen kann. Arch ist eine minimalistische (daher auch leichter klein und schnell zu haltende) Rolling Release Distri, bei man immer mit den aktuellsten Versionen der jeweiligen Softwarepakete versorgt wird. Der Nachteil ist die potentiell geringere Stabilität. Mint z.B. versucht noch mehr als Ubuntu alles tafelfertig zu servieren. Selbst Flashplayer und solche Geschichten sind vorinstalliert. Die verschiedenen Ubuntu-Derivate setzen auf unterschiedliche Desktops. OpenSuSE und Fedora sind die Experimentierkästen von Novell und Redhat. Da testen aus und was sich bewährt, wandert in die kommerziellen Enterprise–Versionen. Und so weiter und so weiter.
Lukasweb
13.04.2013, 14:30
Danke. Kannst du mir eigentlich sagen, warum diese Version von OpenSuse 4,4 GB groß ist und die normale Live-CD nur ~900 MB?
http://software.opensuse.org/123/de
Nicht wirklich (keine Lust, mir das jetzt in Ruhe durchzulesen :p), aber vermutlich wird mehr drauf sein. Zum Beispiel 32bit und 64bit zusammen auf einem Rohling oder so.
Lookbehind
13.04.2013, 23:55
Jap, auf der DVD is ne Menge mehr drauf. Die Live-CD ist sehr abgespeckt, da fehlt quasi alles was viel Platz braucht. Zum Beispiel das komplette Office-Paket. Die DVD is dann auch eher zum installieren gedacht, während die Live-CD eher zum "mal rein schnuppern" oder als Rettungsmedium gedacht ist.
Man kann aber auch über die CD installieren und sich die ganzen Pakete dann nachträglich übers Internet installieren.
Lukasweb
14.04.2013, 12:19
Okay, aber ich hab jetzt einfach mal Fedora runtergeladen. ;)
Seit gestern geht bei uns Youtube kaum mehr (Provider ist die Telekom, da gibt es ja bei vielen Probleme). Das Add-On Youtube Turbo schafft Abhilfe. Die Frage ist nur, warum es mit einem Proxy funktioniert. Der ganze Traffic muss doch trotzdem durch die Telekomleitungen? Hängt das evtl. mit den DNS-Servern der Telekom zusammen?
Jein. Die Telekom dreht halt momentan am Rad. Wie viele andere Ex-Monopolisten auch hat man ein Problem damit, dass andere Leute mit dem Internet Geld verdienen und sie selber außen vor bleiben. Anstatt also eigene, innovative Dienste aufzubauen, die die Kunden gerne und freiwillig nutzen (wie eben z.B. Youtube), wollen sie ihre Macht über die Datenströme nutzen und die Netzneutralität aufheben. Google soll dafür bezahlen, dass deren Inhalte zu Telekom-Kunden gestreamt werden und Telekom-Kunden sollen nochmal dafür zahlen, dass sie YouTube sehen können. Aus diesem Grund wird Youtube-Traffic gedrosselt (was die Telekom halt am Zielhost festmacht). Der Turbo umgeht das.
Aktuell planen sie beispielsweise die Einführung einer Volumendrossel bei den Flatrate-Tarifen, wie man das von Mobilfunktarifen kennt. Wie zu viel Videos guckt (und da ist es dann egal, woher die kommen - Ausnahme siehe unten), der wird halt auf DSL-Light-Niveau runtergebremst. Außer natürlich die eigenen Video-on-Demand-Dienste der Telekom selbst und von Firmen, die die Telekom bereits bezahlen (Maxdome z.B.). Deren Volumen zählt natürlich nicht.
Man will halt Zollstation im Internet spielen und alle abkassieren, Anbieter wie Konsumenten. Und die Kunden machen es fröhlich mit, sonst würden sie ja zu anderen Providern wechseln. Sieht man ja an euch. Anstatt zu einem vernünftigen Provider zu wechseln, bezahlt ihr lieber weiter die Telekom dafür, dass sie euch kein vollwertiges Internet anbieten und eiert mit irgendwelchen Proxy-Plugins herum, die auch nicht alle Probleme lösen.
Lukasweb
14.04.2013, 12:53
Danke für die Antwort. Aber eigentlich ging es mir eher um die technische Seite. Wenn ich das richtig verstehe, dann ist im DNS-Eintrag von Youtube eine Durchsatzdrosselung vermerkt. Stimmt das?
Das mit der absichtlichen Drosselung habe ich auch schon gehört, allerdings habe ich das bis jetzt eher für Verschwörungstheorie gehalten. Die Frage ist auch, warum es die Problem jetzt erst seit gestern gibt, und das auch nicht bei allen, sondern nur bei manchen.
Und was unseren Anschluss angeht:
Ich bin gerade mal 16, also ist mein Vater für das Ganze zuständig. Der ist leider nicht so scharf auf einen Anbieterwechsel, da er fürchtet, dass dadurch Probleme auftreten könnten (war bei einem Bekannten so, der hatte ein halbes Jahr lang kein richtiges Internet). Außerdem ist es für ihn auch wichtig, dass ein Zweigstelle vor Ort ist. Abgesehen davon ist er halt zufrieden damit, sprich es klappt alles.
Vielleicht kann ich ihn aber noch zum Wechseln bewegen.
Danke für die Antwort. Aber eigentlich ging es mir eher um die technische Seite. Wenn ich das richtig verstehe, dann ist im DNS-Eintrag von Youtube eine Durchsatzdrosselung vermerkt. Stimmt das?
Nee. So geht das nicht. Grundsätzlich kann man das so machen, dass einfach aller Traffic zu den IP-Adressen von YouTube gedrosselt wird. Guck dir im Zweifel mal "--limit-rate" in deiner Netfilter-Doku an. So ähnlich geht das bei den Großen auch.
In der Praxis wird es aber vermutlich eher darauf hinaus laufen, dass die Telekom nicht bewusst herunterdrosselt, sondern einfach gewachsene Flaschenhälse nicht öffnet. Dann können sie nämlich sagen: "Wir drosseln doch gar nicht!". Und das stimmt dann streng genommen ja auch. Wenn die Anbindung an YouTube vor 5 oder 10 Jahren noch ausreichend war und heute in der Rushhour halt zu eng ist, dann wird da nicht künstlich gedrosselt. Sondern halt natürlich. Eigentlich müsste man dann Kapazitäten ausbauen, aber das machen sie halt nicht.
Da ist halt Maxdome und das Telekom-eigene VoD mit einer 5-spurigen Autobahn angebunden und Youtube nur über eine Landstraße. Und wenn es da dann Staus gibt, liegt das nicht daran, dass jemand künstlich die Autos aufhalten würde. Mit der Methode kann man dann besser Nebelkerzen werfen. Notwendige Investitionen, Ausbau anderer Bereiche habe Vorrang, unternehmerische Freiheit, blablabla.
Lukasweb
14.04.2013, 13:43
Aber andere Provider nutzen doch auch die Leitungen der Telekom, also müsste es ja bei denen jetzt das Gleiche sein.
Vermutlich werden die vorm Flaschenhals ausgekoppelt. Was die meisten Provider nutzen, ist die "letzte Meile", also der Weg zum Kunden. Das ist nämlich teuer, das selbst auszubauen. Aber sie versuchen, den Traffic so früh wie möglich ins eigene Netz zu speisen, denn natürlich müssen sie der Telekom für die Duchleitung Geld zahlen.
EDIT: Weil mir das gerade beim nochmaligen Lesen so auffällt: Ich weiß nicht sicher, ob die Telekom tatsächlich den YouTube-Traffik (auf welche auch immer) bremst. Das mit der geplanten Volumendrossel stimmt allerdings und in Anbetracht dessen und dem sonstigen Verhalten der Telekom in Sachen Netzneutralität halte ich es für durchaus plausibel.
Lukasweb
16.04.2013, 19:43
Bei Fedora hatte ich nun das gleiche Problem mit dem Auflösung. Full HD war nicht vorhanden, ich hab es per xrandr hinzugefügt und eingestellt, dann ging es. Aber nach dem Neustart war es wieder weg. Kurz nach der Anmeldung poppte noch ganz kurz eine Fehlermeldung auf. Lesen konnte ich nur "Could not apply...". Soll ich jetzt das Gleiche wie bei Mint machen und einen Autostart-Eintrag erstellen?
Allerdings muss jetzt erstmal ein anderes Problem gelöst werden, denn nach kurzer Zeit kam allerdings diese Fehlermeldung:
Oh no! Something has gone wrong.
A Problem has occured and the system cant recover.
Please log out and try again.
Nach dem ich das getan habe, kam allerdings nach kurzem Anzeigen des Desktophintergrunds sofort wieder diese Meldung und auch ein Neustart half nichts.
Lookbehind
17.04.2013, 17:46
Was die Auflösung angeht: Das sind doch alles virtuelle Maschinen bei dir, oder? Welche Grafik-Leistung gestehst du diesen zu? Das könnte nämlich auch ein Grund für die fehlenden Auflösungen sein.
Was die Fehlermeldung angeht: Versuch mal raus zu finden WAS da eigentlich so furchtbar schief gelaufen ist. Leider hält bei Gnome 3 derzeit son bisschen die Windows-Manier einzug... Aussagekräftige Fehlermeldungen braucht halt keiner... :rolleyes:
Lukasweb
17.04.2013, 19:03
Ich konnte leider nichts weiter herausfinden. Das einzige, was ich machen konnte, war die Anmeldung in einem virtuellen Terminal. Leider kann ich da nicht auf xrandr zugreifen (cannot open display). Über den Root-User kann ich mich übrigens normal einloggen. Nur ändert ein Verändern der Auflösung über xrandr dort nichts beim normalen User.
Ich habe drei virtuelle Maschine: Ubuntu, Debian und Fedora. Mint habe ich mittlerweile entfernt.
Ubuntu war das erste, da gab es zunächst keine Probleme mit der Auflösung. Mit Mint danach gab es jene, allerdings habe ich das danach auch nicht mehr genutzt und Debian installiert. Bei letzterem gab es auch keine Probleme. Doch als ich nun Ubuntu startete, war auch hier 800x600 voreingestellt und Full HD nicht möglich. Viele Auflösungen, die größer als 1920x1080 sind, sind aber durchaus möglich.
Die Grafikleistung kann ich praktisch nicht einstellen. Beim Vmware-Player gibt es nur folgende Optionen. 3D Grafikbeschleuniger, und die Monitor Einstellungen. Hier kann man entweder host settings oder eine selbst bestimmte maximale Auflösung wählen. Da mein Host-PC Full HD besitzt, dürfte das kein Problem darstellen.
Leider kann ich da nicht auf xrandr zugreifen (cannot open display).
Weil es, wie bereits geschrieben, mehrere aktive X-Server und damit Displays geben kann, die nicht mal auf dem selben Rechner laufen müssen (X ist netzwerkfähig). Ergo muss man einem Programm sagen, welches Display es denn bitte benutzen soll. Das geschieht über die Umgebungsvariable DISPLAY (in der X-Session selber ist die natürlich schon mit eben diesem Display vorbelegt). Und dann kann natürlich auch nicht jeder User jedem anderen einfach in dessen Displays rumwurschteln (Sicherheitsaspekt), also muss da auch eine Authorisierung erfolgen. Das geschieht über den XAuthority-Mechanismus. Jeder X-Server erzeugt beim Start ein zufälliges Cookie, das in eine Datei im Benutzerverzeichnis geschrieben wird (üblicherweise ~/.Xauthority). Programme lesen diese Datei dann aus und versuchen sich mit dem Cookie beim X-Server zu authentifizieren. Wer kein passendes Cookie hat, kommt nicht rein. Bei einem Programm, dass der User root startet, würde also die Datei /root/.Xauthority gelesen werden, während das korrekte Cookie in /home/deinusername/.Xauthority steht. Kann man dann z.B. über die Umgebungsvariable XAUTHORITY umbiegen.
Das hätte aber auch eigentlich alles in den Manpages stehen müssen, die ich dir bereits genannt hatte.
Lukasweb
21.04.2013, 20:07
Wenn ich das richtig verstanden habe, dann müsste dem xrandr dann einfach nur -d DISPLAY als Parameter angefügt werden. Auch ein DISPLAY=:0.0 davor bringt nichts.
Eigentlich sollte es egal sein. Mal per SSH von meinem Netbook:
$ xrandr
Can't open display
$ DISPLAY=:0.0 xrandr
Screen 0: minimum 320 x 200, current 1024 x 576, maximum 4096 x 4096
LVDS1 connected 1024x576+0+0 (normal left inverted right x axis y axis) 224mm x 126mm
1024x576 60.1*+
640x480 59.9
VGA1 disconnected (normal left inverted right x axis y axis)
$ xrandr -d :0.0
Screen 0: minimum 320 x 200, current 1024 x 576, maximum 4096 x 4096
LVDS1 connected 1024x576+0+0 (normal left inverted right x axis y axis) 224mm x 126mm
1024x576 60.1*+
640x480 59.9
VGA1 disconnected (normal left inverted right x axis y axis)
Muss natürlich der gleiche User sein, s.o.
Lukasweb
22.04.2013, 18:44
Achso, hab vergessen zu erwähnen, dass ich das Ganze schon gemacht habe, es aber nicht funktioniert.
"Cannot open display DISPLAY" oder "Cannot open display DISPLAY 1.0"
Lookbehind
22.04.2013, 19:16
Hast du denn ein Display mit der Bezeichnung 1.0?
Das ganze fängt übrigens bei 0.0 an zu zählen ;)
Lukasweb
22.04.2013, 20:09
Das war jetzt mein Versehen beim Schreiben, ich hab schon 0.0 eingegeben. ;)
Poste mal die Ausgabe von 'ps awux | grep X' und 'ls -l /tmp/.X11-unix'
Lukasweb
23.04.2013, 18:22
In der VT kann ich leider nicht mit der Maus kopieren. Gäbe es eine Methode, die Ausgabe trotzdem zu kopieren? Dann müsste ich nicht den langen Text abschreiben...
'befehl > ~/datei.txt' leitet die Standardausgabe von 'befehl' in die Datei 'datei.txt' im Homeverzeichnis um. Da kannst du sie dann rausfischen (SSH, Windows-Freigabe, Whatever).
Und mal bitte in der Manpage deiner Shell (dürfte die Bash sein) über das Thema Redirection (aka Umleitung) informieren.
Lukasweb
23.04.2013, 18:49
Da müsst ich jetzt erstmal Samba einrichten mit allem Drum und Dran, ich hab jetzt einfach ein Screenshot gemacht und es hochgeladen:
http://imageshack.us/photo/my-images/11/fedoraz.png/?sa=0
Also VirtualBox kann das selbst (Shared Folders). Ist VMware (zumindest dem kostenlosen Player) eh überlegen.
Aber du willst doch was über Netzwerke lernen. Also nimm einfach ein Stream-Socket zum Transfer der Daten. Auf der Windowsseite muss man Netcat (http://joncraton.org/blog/46/netcat-for-windows) im Suchpfad haben. Linux-seitig gehört netcat zum Inventar jeder gut sortierten Distri.
Dann auf der VM:
nc -l 9999 < datei
Auf dem Host:
nc IP_DER_VM 9999 > datei
Und was passiert da? Netcat (nc) öffnet auf der VM den Port 9999 (im Grunde ist es egal welcher, solange er noch frei ist, aber die unter 1024 sind privilegiert). Dann kommt wieder mal die Redirection zum Zuge, denn die sagt der Shell, dass netcat eben mit dem Inhalt von datei gefüttert werden soll. Netcat wartet da also nun auf eingehende Verbindungen.
Auf dem Host machen wir das umgekehrte Spiel. Wir sagen netcat, dass es sich mit dem Port 9999 der VM verbinden soll (wo das andere Netcat ja wartet). Sobald die Verbindung besteht, schiebt das netcat auf der VM den Inhalt von datei hindurch und beendet sich. Auf dem Host wird der Inhalt von netcat empfangen und (wieder mal per Umleitung) in eine Datei geschrieben.
Will man mehrere Dateien übertragen, kann man sie in einen Tarball zusammen packen. Das sei dir mal als Übungsaufgabe überlassen.
Funktioniert natürlich nur dann, wenn sich die beiden via TCP erreichen können (also bspw. keine Firewall im Weg ist).
Was die eigentliche Befehlsausgabe angeht: Das sieht in Ordnung aus, du hast definitiv alles auf dem Display :0.0 laufen. Wenn xrandr da nicht geht, hakt es irgendwo anders (weiß jetzt aus dem Stegreif aber auch nicht, wo). Wenn der X-Server nicht abgeschmiert ist, sollte der eigentlich reagieren. Im Zweifel mal dem X-Server einen TCP-Port geben und darüber versuchen.
Lukasweb
24.04.2013, 20:16
Irgendwie funktioniert das nicht richtig. Über die normale Kommandozeile in Windows kann ich netcat gar nicht starten (falls das so sein sollte, hängt das wohl mit einer Umgebungsvariable zusammen), sondern nur über das Programm selber. Wenn ich jetzt den Befehl absetze, schließt sich das Fenster gleich wieder. Die gewünschte Verschiebung ist nicht gelungen, und die VM hat den Befehl immer noch nicht abgeschlossen (man kann keine neuen Befehle eingeben).
Und die Windows Firewall habe ich deaktiviert. Das VM konnte ich jetzt nur über den VMware Player beenden, da ich ja keine Befehle mehr eingeben konnte. Ich hoffe, das gibt keine Komplikationen wegen der laufenden Verbindung.
Über die normale Kommandozeile in Windows kann ich netcat gar nicht starten
Ohne genaue Fehlermeldung kann man da nur sagen: Höchstwahrscheinlich liegt es dann nicht im Suchpfad. Wie ich bereits schrieb, muss es da aber sein. Entweder musst du den Suchpfad erweitern oder es in ein Verzeichnis schieben, das bereits drin ist (z.B. C:\WINDOWS).
Lukasweb
25.04.2013, 15:26
Jetzt hab ichs nochmal probiert. Diesmal hat er eine Datei mit dem Namen erstellt, allerdings war diese leer. Und auf der VM ist der Befehl auch noch nicht abgeschlossen.
Vermutlich kam dann doch keine Verbindung zustande. Entweder läuft im Linux noch ein Paketfilter, der das blockiert (manche Distris bringen sowas mit und schalten es gleich ein, z.B. ufw bei Ubuntu) oder beim virtuellen Netz hakt irgendwas. Ich habe es, bevor ich das gepostet habe, selbst zur Sicherheit bei mir ausprobiert (mit Linux als Host und Windows als Gast in der VirtualBox und dem von mir schon mehrfach empfohlenen Bridged-Networking). Und da hat es funktioniert.
Du kannst auch einfach nur mal 'nc -l 9999' auf der einen und 'nc ip_der_gegenseite 9999' auf der anderen Seite machen. Dann tippst du in einem Fenster irgendwas ein und es müsste im anderen erscheinen. Wenn halt eine Verbindung möglich ist.
Lukasweb
26.04.2013, 20:52
Habs nochmal mit Debian (Bridged Network) probiert. Geht auch nicht, auch dein letzter Tipp. Der VMware Player bietet noch die Option "Replicate physical connection state". Soll diese gewählt werden?
Ich hatte übrigens ein Problem bei der Aktualisierung von Skype (Windows):
---------------------------
Fehler
---------------------------
An error occurred while applying security settings. Users is not a valid user or group. This could be a problem with the package, or a problem connecting to a domain controller on the network. Check your network connection and click Retry, or Cancel to end the install.
---------------------------
Wiederholen Abbrechen
---------------------------
Nun kann ich Skype aber starten (und die Version wurde auch wirklich aktualisiert). Soll ich das jetzt einfach ignorieren?
Habs nochmal mit Debian (Bridged Network) probiert. Geht auch nicht, auch dein letzter Tipp. Der VMware Player bietet noch die Option "Replicate physical connection state". Soll diese gewählt werden?
Wenn es das macht, was ich denke, dass es macht, dann sollte es keinen Einfluss auf dein Problem haben. Was sagt denn 'iptables -L -n' auf der Linux-Kiste? Und im Windows ggf. mal die UAC ausmachen, evtl. stört die.
Zu Skype kann ich nichts sagen, arbeite nicht damit. Klingt aber danach, als hätte es versucht, irgendwelche Rechte für die Gruppe „Users” anzupassen, von der dein Windows meint, dass es die nicht hat. Evtl. ein Übersetzungsproblem (bei deutschem Windows heißt das Ding IIRC „Benutzer”). Sofern alles geht, kann man es dann ignorieren. Aber das ist jetzt Spekulatius meinerseits.
Lukasweb
27.04.2013, 11:28
Iptables sagt das hier:
INPUT (policy ACCEPT)
target prot opt source destination
Chain FORWARD (policy ACCEPT)
target prot opt source destination
Chain OUTPUT (policy ACCEPT)
target prot opt source destination
Auf der Ubuntu-VM aber leider das hier:
FATAL: Error inserting ip_tables (/lib/modules/3.5.0-27-generic/kernel/net/ipv4/netfilter/ip_tables.ko): Operation not permitted
iptables v1.4.12: can't initialize iptables table `filter': Table does not exist (do you need to insmod?)
Perhaps iptables or your kernel needs to be upgraded.
Hat das evlt. etwas damit zu tun, dass ich noch Version 12.10 habe und noch nicht auf 13.04 geupdatet habe?
Das erste ist von Debian? Sieht eigentlich korrekt aus. Konzentrieren wir uns mal darauf, damit es nicht ständig durcheinander geht mit den Distris.
Also: Wie genau lauten die Befehle, die du abgesetzt hast (mit der IP-Adresse, die du benutzt hast)? Was sagen 'ifconfig -a' auf Linux- und 'ipconfig /all' auf Windows-Seite? Hast du die UAC wie besprochen deaktiviert?
Lookbehind
27.04.2013, 12:09
...
Auf der Ubuntu-VM aber leider das hier:
Hat das evlt. etwas damit zu tun, dass ich noch Version 12.10 habe und noch nicht auf 13.04 geupdatet habe?
Nein, das hat was mit fehlenden Berechtigungen zu tun. Versuchs mal mit sudo iptables -L -n :)
Das Code-Tag eignet sich übrigens besser um hier solche Ausgaben rein zu stellen, als das Quote-Tag. 1. Verfälscht es die Formatierung nicht, und 2. lässt es sich Zitieren. :gratz
Lukasweb
27.04.2013, 13:12
ipconfig -a (debian, geht bei mir komischerweise nur mit sudo):
eth0 Link encap:Ethernet Hardware Adresse 00:0c:29:b5:c0:43
inet Adresse:192.168.2.106 Bcast:192.168.2.255 Maske:255.255.255.0
inet6-Adresse: fe80::20c:29ff:feb5:c043/64 Gültigkeitsbereich:Verbindung
UP BROADCAST RUNNING MULTICAST MTU:1500 Metrik:1
RX packets:123 errors:0 dropped:0 overruns:0 frame:0
TX packets:62 errors:0 dropped:0 overruns:0 carrier:0
Kollisionen:0 Sendewarteschlangenlänge:1000
RX bytes:8789 (8.5 KiB) TX bytes:9006 (8.7 KiB)
lo Link encap:Lokale Schleife
inet Adresse:127.0.0.1 Maske:255.0.0.0
inet6-Adresse: ::1/128 Gültigkeitsbereich:Maschine
UP LOOPBACK RUNNING MTU:16436 Metrik:1
RX packets:8 errors:0 dropped:0 overruns:0 frame:0
TX packets:8 errors:0 dropped:0 overruns:0 carrier:0
Kollisionen:0 Sendewarteschlangenlänge:0
RX bytes:560 (560.0 B) TX bytes:560 (560.0 B)
pan0 Link encap:Ethernet Hardware Adresse f2:6b:f4:6c:2c:4c
BROADCAST MULTICAST MTU:1500 Metrik:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
Kollisionen:0 Sendewarteschlangenlänge:0
RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
ipconfig /all:
Windows-IP-Konfiguration
Hostname . . . . . . . . . . . . : Lukas-PC
Primäres DNS-Suffix . . . . . . . :
Knotentyp . . . . . . . . . . . . : Hybrid
IP-Routing aktiviert . . . . . . : Nein
WINS-Proxy aktiviert . . . . . . : Nein
DNS-Suffixsuchliste . . . . . . . : Speedport_W_504V_Typ_A
Ethernet-Adapter LAN-Verbindung:
Verbindungsspezifisches DNS-Suffix: Speedport_W_504V_Typ_A
Beschreibung. . . . . . . . . . . : Realtek PCIe GBE Family Controller
Physikalische Adresse . . . . . . : F4-6D-04-8F-8B-DA
DHCP aktiviert. . . . . . . . . . : Ja
Autokonfiguration aktiviert . . . : Ja
Verbindungslokale IPv6-Adresse . : fe80::6c1c:b8bb:fcb7:3c7e%11(Bevorzugt)
IPv4-Adresse . . . . . . . . . . : 192.168.2.102(Bevorzugt)
Subnetzmaske . . . . . . . . . . : 255.255.255.0
Lease erhalten. . . . . . . . . . : Samstag, 27. April 2013 13:04:47
Lease läuft ab. . . . . . . . . . : Samstag, 18. Mai 2013 13:52:06
Standardgateway . . . . . . . . . : 192.168.2.1
DHCP-Server . . . . . . . . . . . : 192.168.2.1
DHCPv6-IAID . . . . . . . . . . . : 250899716
DHCPv6-Client-DUID. . . . . . . . : 00-01-00-01-18-25-EE-93-F4-6D-04-8F-8B-DA
DNS-Server . . . . . . . . . . . : 192.168.2.1
NetBIOS über TCP/IP . . . . . . . : Aktiviert
Tunneladapter isatap.Speedport_W_504V_Typ_A:
Medienstatus. . . . . . . . . . . : Medium getrennt
Verbindungsspezifisches DNS-Suffix: Speedport_W_504V_Typ_A
Beschreibung. . . . . . . . . . . : Microsoft-ISATAP-Adapter
Physikalische Adresse . . . . . . : 00-00-00-00-00-00-00-E0
DHCP aktiviert. . . . . . . . . . : Nein
Autokonfiguration aktiviert . . . : Ja
Tunneladapter Teredo Tunneling Pseudo-Interface:
Verbindungsspezifisches DNS-Suffix:
Beschreibung. . . . . . . . . . . : Teredo Tunneling Pseudo-Interface
Physikalische Adresse . . . . . . : 00-00-00-00-00-00-00-E0
DHCP aktiviert. . . . . . . . . . : Nein
Autokonfiguration aktiviert . . . : Ja
IPv6-Adresse. . . . . . . . . . . : 2001:0:5ef5:79fb:2446:161a:3f57:fd99(Bevo
rzugt)
Verbindungslokale IPv6-Adresse . : fe80::2446:161a:3f57:fd99%13(Bevorzugt)
Standardgateway . . . . . . . . . : ::
NetBIOS über TCP/IP . . . . . . . : Deaktiviert
Zwischendurch wurde ich noch u.a. durch den Avast Free Antivirus aufgehalten. Zur der Zeit war ich scheinbar nicht ganz bei der Sache und habe mich beim Update verklickt, so dass er die Internet Security-Testversion installiert hat (war nicht rückgängig zu machen). Dann gab es keine andere Möglichkeit, als diese zu löschen und wieder die Free-Version draufzuladen. Die UAC hatte ich zuvor deaktiviert und als ich mit Search Everything nach Avast suchte, um Unnötiges zu löschen, kam beim Löschen immer der Hinweis, dass man Administratoberechtigungen bräuchte, obwohl ich diese ja hatte. Auch das Starten von Everything mit Admin-Rechten hat nicht geholfen.
Außerdem hatte ich bei Debian wieder das Problem mit der linken Maustaste. Ich muss mich wohl mal im VMware-Forum kundig machen...
Das Problem mit der Auflösung, welches ich jetzt auch bei Ubuntu habe, kann ich da hoffentlich gleich auch behandeln.
Es fehlen noch die Befehle, die du benutzt hast. Und eventuell kann man auch mal auf beiden Seiten IPv6 deaktivieren. Manchmal klemmt es da, wenn ein Programm nicht weiß, welches Protokoll es jetzt bevorzugen soll.
Lukasweb
27.04.2013, 13:35
Die Befehle waren immer unterschiedlich, da sich die IP ändert, letztes Mal war es:
nc -l 9999 (Debian-VM)
nc 192.168.2.106 9999 (Windows-Host)
Danach kann man in Debian noch Text eingeben, aber der Befehl wird nie abgeschlossen, man kann dann nur das Terminal schließen und neustarten. Unter Windows ist der Befehl meist gleich abgeschlossen.
Also erstmal kann man das offene netcat mit Strg+C schließen, da muss man kein Terminal für zumachen. ;)
Beim Rest muss man jetzt versuchen, das Problem einzugrenzen.
Antwortet die Linux-VM auf Pings? Von sich selbst und vom Windows-Host?
Funktioniert es wie beschrieben, wenn du auf der Linux-Maschine bleibst? Also: 'nc -l -p 9999' in einem Terminalfenster und dann in einem anderen Terminalfenster (auf der selben VM!): 'nc 127.0.0.1 9999'
Geht es auch noch, wenn man beim zweiten Befehl die LAN-IP nimmt?
Das gleiche Spiel auf der Windows-Seite, geht es da?
Wenn das alles fehlerfrei durchläuft und nur die Verbindung zwischen Host und VM klemmt, dann kann man nochmal mit Wireshark den Netzwerkverkehr belauschen, aber das geht dann schon ziemlich ins Eingemachte. Da würde ich vorher erstmal auf beiden Seiten IPv6 abklemmen. Dazu gibt es ergooglebare Anleitungen im Web.
Lookbehind
27.04.2013, 14:17
Gibts eigentlich ne Möglichkeit, dass NetCat den Listen-Mode nicht gleich wieder verlässt, bloß weil die Gegenstelle weg stirbt?
Gibts eigentlich ne Möglichkeit, dass NetCat den Listen-Mode nicht gleich wieder verlässt, bloß weil die Gegenstelle weg stirbt?
Ja. Mit '-k'. Hätte übrigens auch in der Manpage gestanden, lieber Lookbehind. Tsk, tsk. :D
Lookbehind
27.04.2013, 14:47
Ja. Mit '-k'. Hätte übrigens auch in der Manpage gestanden, lieber Lookbehind. Tsk, tsk. :D
Manchmal is man faul... Asche auf mein Haupt §gnah
Edit: Heee, Moment mal, das stimmt ja gar nicht! NetCat kennt überhaupt kein -k!
Naja, immerhin hast du mich dazu gebracht selbst mal nach zu schauen :p
Lukasweb
27.04.2013, 17:59
Mann, mir ist grad was ganz Blödes passiert:
Da es mit Oblivion öfters Problem gab, musste ich auch öfters den Audio-Treiber neuladen. Beim letzten Mal bin ich aber aus Versehen statt auf Deaktivieren auf Deinstallieren. Dann war der Eintrag erst mal entfernt. Den Treiber konnte ich leider nicht neuinstallieren, da er das Gerät nicht erkannt hat. Wenn man nach geänderter Hardware suchte, kommt nur ein Audiocontroller, der nicht funktioniert, aber auch nicht identifiziert und aktualisiert werden kann.
Doch zum Glück kam dann die Erleichterung.
Nach einer Zeit war aber dann doch wieder die Soundkarte an ihrem üblichen Platz im Geräte-Manager als Xonar DG. Was machst Windows denn in der Zeit und wieso dauert das so lange?
Was macht man eigentlich, wenn man ein Gerät hat, das nicht identifiziert werden kann und deshalb dafür auch nicht den richtigen Treiber installieren kann?
Edit: Heee, Moment mal, das stimmt ja gar nicht! NetCat kennt überhaupt kein -k!
Meines schon:
$ man netcat | grep -A3 'stay listening'
-k Forces nc to stay listening for another connection after its cur‐
rent connection is completed. It is an error to use this option
without the -l option.
$ netcat -l -p 9999 -k
Hallo Welt!
Das hier ist eine zweite Verbindung, die erste
habe ich zugemacht!
Und eine Dritte, weil's so schön ist!
Was macht man eigentlich, wenn man ein Gerät hat, das nicht identifiziert werden kann und deshalb dafür auch nicht den richtigen Treiber installieren kann?
Bei PCI-Geräten kann man Device- und Vendor-ID aus dem Gerätemanager fischen und damit dann auf die Suche gehen. Bei Linux geht das automatisch mit 'lspci', die Datenbank gibt es aber auch im Netz (pciids.sf.net). Bei USB geht es ähnlich. Ansonsten gibt es nicht immer klare Identifikationsmethoden.
Lookbehind
28.04.2013, 02:46
Meines schon:
$ man netcat | grep -A3 'stay listening'
-k Forces nc to stay listening for another connection after its cur‐
rent connection is completed. It is an error to use this option
without the -l option.
$ netcat -l -p 9999 -k
Hallo Welt!
Das hier ist eine zweite Verbindung, die erste
habe ich zugemacht!
Und eine Dritte, weil's so schön ist!
...
lookbehind@1337-Machine:~$ man netcat | grep -A3 'stay listening'
lookbehind@1337-Machine:~$ dpkg -s netcat | egrep "Package:|Status:|Version:"
Package: netcat
Status: install ok installed
Version: 1.10-40
lookbehind@1337-Machine:~$
Welche Version von netcat benutzt du denn?
Ich habe die OpenBSD-Version (1.105) installiert:
$ dpkg -l 'netcat*' | grep ^ii
ii netcat-openbsd 1.105-7ubunt amd64 TCP/IP swiss army knife
$ dpks -s netcat-openbsd
Package: netcat-openbsd
Status: install ok installed
Priority: important
Section: net
Installed-Size: 109
Maintainer: Ubuntu Developers <ubuntu-devel-discuss@lists.ubuntu.com>
Architecture: amd64
Version: 1.105-7ubuntu1
Replaces: netcat (<< 1.10-35)
Provides: netcat
Depends: libbsd0 (>= 0.2.0), libc6 (>= 2.16)
Breaks: netcat (<< 1.10-35)
Description: TCP/IP swiss army knife
A simple Unix utility which reads and writes data across network
connections using TCP or UDP protocol. It is designed to be a reliable
"back-end" tool that can be used directly or easily driven by other
programs and scripts. At the same time it is a feature-rich network
debugging and exploration tool, since it can create almost any kind of
connection you would need and has several interesting built-in
capabilities.
.
This package contains the OpenBSD rewrite of netcat, including support
for IPv6, proxies, and Unix sockets.
Original-Maintainer: Aron Xu <aron@debian.org>
Im Vergleich dazu:
$ apt-cache show netcat-traditional
Package: netcat-traditional
Priority: optional
Section: universe/net
Installed-Size: 157
Maintainer: Ubuntu Developers <ubuntu-devel-discuss@lists.ubuntu.com>
Original-Maintainer: Ruben Molina <rmolina@udea.edu.co>
Architecture: amd64
Source: netcat
Version: 1.10-40
Provides: netcat
Depends: libc6 (>= 2.15)
Filename: pool/universe/n/netcat/netcat-traditional_1.10-40_amd64.deb
Size: 65016
MD5sum: a2a17f30cc06307422fa03b8e32a8347
SHA1: 8e3442d71ea01bebd567a4b9e538e0f3414ebdb1
SHA256: 8b11daf4af70b9bce038051c1fa4ca43473709540c9687cc11f3bc8dbf2d1966
Description-de: Schweizer Taschenmesser für TCP/IP
Ein einfaches Unix-Programm, das über Netzwerkverbindungen per TCP oder
UDP Daten liest und schreibt. Es wurde als zuverlässiges »Back-
End«-Programm entwickelt, das entweder direkt oder von anderen Programmen
und Skripten aus benutzt werden kann. Gleichzeitig ist es ein
funktionsreiches Netzwerk-Debugging und -Untersuchungsprogramm, weil es
beinahe jede Art von Verbindung aufbauen kann, die Sie benötigen, und
einige interessante Funktionen eingebaut hat.
.
Dies ist das „klassische“ netcat, das von *Hobbit* geschrieben wurde.
Dieser Version fehlen viele Eigenschaften, die in netcat-openbsd gefunden
werden können.
Description-md5: 83fb6fcb16e6638fb447527fffff1e0a
Bugs: https://bugs.launchpad.net/ubuntu/+filebug
Origin: Ubuntu
System ist Kubuntu 13.04.
Lookbehind
28.04.2013, 12:30
Ahaaaaaa! Und die BSD-Variante kann auch wieder mehrere Ports auf einmal ansprechen, sehr praktisch... sehr praktisch :)
Danke für den Hint! :gratz
Lukasweb
28.04.2013, 19:51
Foobar, ich hab jetzt mal deine Checkliste durchgemacht und da hakt es schon.
Wenn ich auf Debian in einem anderen Reiter nun die Antwort eingebe, kommt das:
(UNKNOWN) [127.0.0.1] 9999 (?) : Connection refused
Musste das jetzt abtippen, da die Zwischenablage der VMware Tools auch nicht mehr richtig funktioniert.
Wenn ich übrigens auch dem Host eine Anfrage schicke (nc -l 9999 <datei), dann kommt das:
local listen fuxored: INVAL
Wenn ich auf Debian in einem anderen Reiter nun die Antwort eingebe, kommt das:
(UNKNOWN) [127.0.0.1] 9999 (?) : Connection refused
IPv6 ist aus? Benutzt du auch sicher die OpenBSD-Version von netcat (siehe Diskussion mit Lookbehind)? AppArmor und SELinux, sofern vorhanden, deaktiviert?
Die Meldung sieht nämlich auch komisch aus. Mal zum Vergleich (beide Befehle scheitert, weil ich auf 9999 keine Gegenstelle in Betrieb habe):
$ nc 127.0.0.1 9999
$ nc -v 127.0.0.1 9999
nc: connect to 127.0.0.1 port 9999 (tcp) failed: Connection refused
Ich kann also nicht mal deine Fehlermeldung erzeugen.
Lookbehind
28.04.2013, 20:39
IPv6 ist aus? Benutzt du auch sicher die OpenBSD-Version von netcat (siehe Diskussion mit Lookbehind)?
...
Wobei das öffnen eines Listen-Ports und das darauf verbinden, sowie das hin und her schicken von Informationen über diese Verbindung, auch mit der anderen NetCat-Version problemlos klappte. Nur wurde da halt der Listen-Mode verlassen, sobald die Verbindung einmal abbrach.
Lookbehind
29.04.2013, 16:30
...
Ich kann also nicht mal deine Fehlermeldung erzeugen.
Ich habs grade hin bekommen!
Unter Windows schmeißt nc solche Fehlermeldungen, und scheint auch generell anders zu funktionieren.
Iptables sagt das hier:
Auf der Ubuntu-VM aber leider das hier:
FATAL: Error inserting ip_tables (/lib/modules/3.5.0-27-generic/kernel/net/ipv4/netfilter/ip_tables.ko): Operation not permitted
iptables v1.4.12: can't initialize iptables table `filter': Table does not exist (do you need to insmod?)
Perhaps iptables or your kernel needs to be upgraded.
Hat das evlt. etwas damit zu tun, dass ich noch Version 12.10 habe und noch nicht auf 13.04 geupdatet habe?
Nein. Bei Desktopversionen von Ubuntu wird iptables nicht mehr automatisch installiert. Deine Ubuntu-VM hat keine Firewall.
http://wiki.ubuntuusers.de/Personal_Firewalls
Lukasweb
01.05.2013, 15:47
Mit der openbsd-Version hats jetzt geklappt. Was war denn der Grund, dass es mit der Normalen nicht geht?
Von Apparmor weiß ich übrigens nichts auf diesem System(hab auch nichts über die Suche im Softwarecenter gefunden). Von SELinux konnte ich nur zwei Pakete (libselinux1 und libsepol1) finden.
Übrigens lässt mein Debian schon einige Ports nach außen offen, sagt netstat. Ist das normal?
Lukasweb
01.05.2013, 15:50
Hier die Liste (musste einen neuen Post machen, da die Edit-Funktion bei mit im Epiphany grad gesponnen hat.
Aktive Internetverbindungen (Nur Server)
Proto Recv-Q Send-Q Local Address Foreign Address State User Inode PID/Program name
tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 0 4038 1228/portmap
tcp 0 0 0.0.0.0:58473 0.0.0.0:* LISTEN 103 4086 1245/rpc.statd
udp 0 0 0.0.0.0:68 0.0.0.0:* 0 4563 1484/dhclient
udp 0 0 0.0.0.0:41545 0.0.0.0:* 104 4683 1512/avahi-daemon:
udp 0 0 0.0.0.0:997 0.0.0.0:* 0 4074 1245/rpc.statd
udp 0 0 0.0.0.0:5353 0.0.0.0:* 104 4681 1512/avahi-daemon:
udp 0 0 0.0.0.0:111 0.0.0.0:* 0 4027 1228/portmap
udp 0 0 0.0.0.0:631 0.0.0.0:* 0 11391 1619/cupsd
udp 0 0 0.0.0.0:60684 0.0.0.0:* 103 4083 1245/rpc.statd
udp6 0 0 :::5353 :::*
Hängt davon ab. Wenn du selbst den NFS-Server installiert und Druckerfreigabe via CUPS konfiguriert hast, dann kann das schon so aussehen. Ansonsten ist es halt nicht schön. Ob es ein echtes Sicherheitsproblem ist, hängt davon ab, ob und wie an der LAN-Grenze (im Router) gefiltert wird und inwieweit du den restlichen Stationen im LAN vertraust.
Die beiden anderen (Dhclient und Avahi) dienen der automatischen Netzwerkkonfiguration. Die sind auch bei Ubuntu standardmäßig offen (siehe hier (http://wiki.ubuntuusers.de/Offene_Ports)). Da macht man offenbar Ausnahmen bei der Sicherheit zugunsten der Bequemlichkeit des Otto Normaldaus. Ich hätte es ja anders gehandhabt, man will wohl unbedingt einfach und zugänglich sein.
Lookbehind
01.05.2013, 20:35
Nein. Bei Desktopversionen von Ubuntu wird iptables nicht mehr automatisch installiert. Deine Ubuntu-VM hat keine Firewall.
http://wiki.ubuntuusers.de/Personal_Firewalls
Doch, IPTables ist immer dabei. Nur sind halt per Default keine Regeln definiert.
Recht hast du allerdings mit "deine Ubuntu-VM hat keine Firewall". IPTables ist auch keine Firewall im eigentlichen Sinne, sondern ein Paketfilter. Was für diesen Fall der Anwendung aber kaum einen Unterschied macht.
Hier die Liste (musste einen neuen Post machen, da die Edit-Funktion bei mit im Epiphany grad gesponnen hat.
Aktive Internetverbindungen (Nur Server)
Proto Recv-Q Send-Q Local Address Foreign Address State User Inode PID/Program name
tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 0 4038 1228/portmap
tcp 0 0 0.0.0.0:58473 0.0.0.0:* LISTEN 103 4086 1245/rpc.statd
udp 0 0 0.0.0.0:68 0.0.0.0:* 0 4563 1484/dhclient
udp 0 0 0.0.0.0:41545 0.0.0.0:* 104 4683 1512/avahi-daemon:
udp 0 0 0.0.0.0:997 0.0.0.0:* 0 4074 1245/rpc.statd
udp 0 0 0.0.0.0:5353 0.0.0.0:* 104 4681 1512/avahi-daemon:
udp 0 0 0.0.0.0:111 0.0.0.0:* 0 4027 1228/portmap
udp 0 0 0.0.0.0:631 0.0.0.0:* 0 11391 1619/cupsd
udp 0 0 0.0.0.0:60684 0.0.0.0:* 103 4083 1245/rpc.statd
udp6 0 0 :::5353 :::*
Wie hast du das denn ermittelt? Von der Debian-VM selbst?
Mit der openbsd-Version hats jetzt geklappt.
Sehr schön. Und nur, damit du mal die Vor- und Nachteile der Netcat-Methode zum Transfer von Dateien verstehst: „Richtige” Datenaustauschprotokoll wie SMB oder NFS haben den Vorteil, dass sie wartungsfrei im Hintergrund werkeln und auch Locking- und Zugriffsmechanismen abbilden. Es können mehrere Leute von verschiedenen Rechnern aus die selbe Datei anfragen. Ohne dass man sich da extra um was kümmern müsste. Außerdem gibt es eine Authentifizierung. Es kann nicht einfach jeder kommen und sich eine Datei ziehen, er muss schon vorher angemeldet werden. Noch einen Schritt weiter geht SSH. Hat zwar keinen Mehrfachzugriff im eigentlichen Sinne, aber damit kann man auch Dateien mit Authentifizierung übertragen. Da werden sie dann zusätzlich noch verschlüsselt. Toll für’s böse Internet, daheim aber unnötig.
Wenn man das alles nicht braucht, sondern „nur mal eben” in einem vertrauenswürdigen Netz einen Stapel Dateien von Rechner A auf Rechner B ziehen will, dann ist netcat von Vorteil, weil es den ganzen Verwaltungs- und Verschlüsselungsoverhead nicht mitbringt und auch keine Server erst zu konfigurieren sind.
Mal in Zahlen ausgedrückt:
$ time cp -r . /mnt/nfs-share/
real 16m39.074s
user 0m0.248s
sys 0m6.504s
$ time cp -r . /mnt/samba-share/
real 5m51.134s
user 0m0.276s
sys 0m10.712s
$ time scp -r . 192.168.0.102:x/ > /dev/null
real 4m18.096s
user 1m49.156s
sys 0m7.748s
$ time tar c . | netcat 192.168.0.102 9999 # Gegenstelle: netcat -l -p 9999 | tar x
real 1m36.468s
user 0m0.652s
sys 0m9.316s
Wir sehen also, dass netcat um den Faktor 3,6 schneller ist als SMB und immer noch 2,7-mal schneller als SSH. Die rote Laterne trägt NFS mit Faktor 10,4.
Kopiert wurde ein Verzeichnis mit 10.000 Dateien á 100 KB Zufallsdaten von meinem Arbeitsrechner auf mein Netbook. Theoretisch könnte man tar auch noch sehr bequem komprimieren lassen (man muss nur zwei Zeichen mehr tippen), um das Datenvolumen zu senken, aber hier ging es ja um die reine Netzwerkeffizienz. Je größer und weniger die Dateien werden, umso mehr schrumpft der Unterschied natürlich zusammen.
Lukasweb
02.05.2013, 15:34
Gut. Warum benützt du immer unterschiedliche Befehle zum Kopieren und am Ende sogar tar?
Übrigens habe ich weder einen NFS-Server, noch eine Druckfreigabe eingerichtet. Die Ports müssen von Anfang an offen gewesen sein.
Gut. Warum benützt du immer unterschiedliche Befehle zum Kopieren und am Ende sogar tar?
NFS und SMB binden sich ins normale Dateisystem ein. Die sehen also aus wie normale Verzeichnisse, ergo wird mit 'cp' kopiert. SSH macht das so erst mal nicht (mit 'sshfs' geht es zwar auch, aber ich wollte jeden zusätzlichen Overhead vermeiden), da nimmt man direkt 'scp' (gehört zu SSH).
Und ganz zum Schluss halt der netcat. Wenn ich mehrere Dateien übertragen will, weiß netcat ja nicht, wann die eine fertig ist und die andere anfängt. Es hat keine Ahnung von Dateien, es schiebt nur Bytes. Auch die Dateinamen gingen verloren. Da springt tar ein. Das packt beliebig viele Dateien in ein (nicht komprimiertes) Archiv und schiebt diese eine Datei, die es dann nur noch ist, durch netcat. Auf der Gegenseite reicht netcat den Datenstrom wieder an tar, welches ihn entpackt.
In etwa so:
Datei1 \ / Datei1
Datei2 \ / Datei2
Datei3 +--> tar --> netcat --> TCP/IP --> netcat --> tar --+ Datei3
... / \ ...
DateiN / \ DateiN
Lukasweb
09.05.2013, 20:11
Melde mich mal wieder. ;)
Ich nutze im Moment das Tool NetSpeedMonitor, allerdings hat das einen nervigen Fehler:
Immer, wenn ich in den Energie-Spar Modus gehe und daraus wieder hochfahre, ist der Traffic um ca. 600 MB gestiegen. Das liegt wohl daran, dass das Programm für ganz kurze Zeit einen extrem hohen Durchsatz misst, das sieht man nämlich ganz kurz.
Weißt du zufällig, wie man diesen Fehler beheben kann?
Lukasweb
11.05.2013, 18:36
Ich hab noch ein paar Fragen bzgl. Linux:
1. Ist es möglich, bestimmte Befehle mit einem Kürzel zu belegen? Im Grunde könnte man ja ein Skript schreiben und es aufrufen, aber dann müsste man erstens in das Verzeichnis des Skripts wechseln und zweitens wäre es nicht möglich, noch einen zusätzlichen immer variierenden Parameter an den Befehl zu hängen.
2. Wie schon gesagt, interessiere ich mich sehr für Netzwerke und im engen Zusammenhang dazu steht ja die Sicherheit. Gibt es irgendwo ein gutes Tutorial zu Metsploit?
3. Würdest du mir empfehlen, vielleicht noch OpenBSD (oder ein anderes BSD) in einer VM zu installieren?
Lookbehind
11.05.2013, 20:08
Ich hab noch ein paar Fragen bzgl. Linux:
1. Ist es möglich, bestimmte Befehle mit einem Kürzel zu belegen?
Du suchst Aliase.
Die simple Form kann man direkt in der Shell anwenden, einfach mal folgendes eintippen:
alias tollertext='echo "Ein toller Text. Wahlweise kann man statt echo auch sinnvollere Befehle auf beliebige Aliase legen."'
Anschließend kannst du in der Shell mit "tollertext" eine Ausgabe erzeugen. Nachteil: Beendest du die Shell, und startest eine neue, is das wieder weg.
Willst du das dauerhaft haben, musst du den Alias in der ~/.bashrc, oder in manchen Distros stattdessen in der ~/.bash_aliases.
Aber überlege dir gut, worauf du einen Alias legst! Die Gefahr ist groß, sich auf diese Weise seinen eigenen Befehls-Satz zusammen zu bauen, und plötzlich nicht mehr zurande zu kommen, wenn man mal nicht an seinem System sitzt. Außerdem funktionieren die meisten Aliase nicht in Scripten.
Im Grunde könnte man ja ein Skript schreiben und es aufrufen, aber dann müsste man erstens in das Verzeichnis des Skripts wechseln
Ein Problem dass sich lösen lässt. Entweder schiebt man das Script an die richtige Stelle, oder man fügt die Stelle an der es liegt, der $PATH Variablen hinzu.
Eine richtige Stelle wäre zum Beispiel /usr/local/bin/. Das Verzeichnis ist extra für selbst geschriebene Programme/Scripte gedacht. Darum wird das Verzeichnis auch nicht von der Paketverwaltung angefasst, um da nix durcheinander zu bringen.
Wenn dich das näher interessiert, schau dir mal den Filesystem Hierarchy Standard (http://de.wikipedia.org/wiki/Filesystem_Hierarchy_Standard) an.
und zweitens wäre es nicht möglich, noch einen zusätzlichen immer variierenden Parameter an den Befehl zu hängen.
Da unterschätzt du die Bash-Scripte aber gewaltig! Die Bash kann dann doch einiges mehr als der DOS-Prompt unter Windows. Und selbst der kann Parameter an Scripte übergeben ;)
2. Wie schon gesagt, interessiere ich mich sehr für Netzwerke und im engen Zusammenhang dazu steht ja die Sicherheit. Gibt es irgendwo ein gutes Tutorial zu Metsploit?
Falscher Ansatz! Beschäftige dich lieber damit wie die Netzwerk und Server-Techniken funktionieren. Setz dich mit Rechteverwaltung auseinander,. Lies auf einigen Seiten mit, die sich mit IT-Sicherheit(slücken) beschäftigen und versuche zu verstehen wo das Problem lag. Da hast du letztlich mehr von.
Eine Anleitung zum Hacken anderer Rechner wirst du hier nicht bekommen.
3. Würdest du mir empfehlen, vielleicht noch OpenBSD (oder ein anderes BSD) in einer VM zu installieren?
Wenn du nicht weißt wohin mit deiner Freizeit, und was lernen möchtest. Warum nicht? Schaden wird es wohl eher nicht. Und wer weiß, vielleicht öffnet es dir die Augen auch noch für ganz andere Aspekte der IT.
Muss aber man meiner Meinung nach aber nicht zwangsläufig mal gemacht haben.
Lukasweb
06.06.2013, 17:49
Hallo,
melde mich mal seit langem wieder. Und zwar liegt das Auflösungsproblem jetzt auch unter Ubuntu vor. Nachdem ich einen Skript mit den xrandr Befehlen in den Autostart geschoben habe und danach neugestartet kommt diese Meldung (genau genommen geht sie noch weiter, aber das passte nicht mehr auf den Bildschirm:
Could not apply the stored configuration for monitors
none of the selected modes were compatible with the possible modes:
Trying modes for CRTC 63
CRTC 63: trying mode 800x600@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 2560x1600@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1920x1440@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1856x1392@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1792x1344@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1920x1200@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1600x1200@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1680x1050@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1400x1050@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1280x1024@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1440x900@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1280x960@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1360x768@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1280x800@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1152x864@75Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1280x768@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 1024x768@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 800x600@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 640x480@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 63: trying mode 800x600@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 2560x1600@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1920x1440@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1856x1392@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1792x1344@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1920x1200@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1600x1200@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1680x1050@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1400x1050@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1280x1024@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1440x900@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1280x960@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1360x768@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1280x800@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1152x864@75Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1280x768@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 1024x768@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 800x600@60Hz with output at 1920x1080@60Hz (pass 1)
CRTC 63: trying mode 640x480@60Hz with output at 1920x1080@60Hz (pass 1)
Trying modes for CRTC 64
CRTC 64: trying mode 800x600@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 2560x1600@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1920x1440@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1856x1392@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1792x1344@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1920x1200@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1600x1200@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1680x1050@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1400x1050@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1280x1024@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1440x900@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1280x960@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1360x768@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1280x800@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1152x864@75Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1280x768@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 1024x768@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 800x600@60Hz with output at 1920x1080@60Hz (pass 0)
CRTC 64: trying mode 640x480@60Hz with output at 1920x1080@60Hz (pass
Die Auflösung ist allerdings korrekt auf 1920x1080 eingestellt. Jetzt müsste man also nur die Meldung wegkriegen. ;)
Außerdem habe ich ein Problem mit der Darstellung von manchen Programmen. Die sieht teilweise gar nicht nach Unity aus. Dazu hier ein Bild:
http://imageshack.us/photo/my-images/15/screenshotfrom201306061.png/
Das Gleiche auch bei LibireOffice, aber bspw. nicht bei geedit. Hier hat er das Design evlt. mit einer anderen Oberfläche zusammengeschmissen, das ist mir schon mal bei Wubi mit KDE und Unity passiert (da hatte Unity das Kontextmenu von KDE).
Was kann ich da tun?
Übrigens ist die VM ziemlich langsam. Ist das normal bei zugewiesenem 1GB RAM?
Lookbehind
06.06.2013, 19:24
...
http://imageshack.us/photo/my-images/15/screenshotfrom201306061.png/
...
Ich kann da nix sehen. Lad sowas doch einfach beim Foren-Upload (http://upload.worldofplayers.de) hoch, das geht na ganzen Menge Probleme, die man mit Uploadern wie Imageshack und Co immer mal wieder hat, aus dem Weg.
...
Übrigens ist die VM ziemlich langsam. Ist das normal bei zugewiesenem 1GB RAM?
Naja, laufen sollte es damit schon. Aber ne Rakete wirds damit nicht. Außerdem haben VMs in der Regel keine dedizierte Grafikkarte. Alles was Grafik-Effekte erfordert ist also auch deutlich langsamer. Zumal Ubuntu (zumindest in der Unity-Version) seit 1-2 Versionen tatsächlich hin geht und die ganzen Grafik-Effekte auf der CPU rendern lässt, statt sie einfach ab zu schalten, wenn es keine passende Grafikkarte findet. Was die Performance nochmal in den Keller treibt.
Lukasweb
07.06.2013, 19:28
Also hier nochmal:
http://upload.worldofplayers.de/files9/Screenshot_from_2013_06_06_184328.png
Allerdings sieht das jetzt schon wieder anders aus bei mir. Ich habe nämlich im Systemeinstellungsmenu ein anderes Design einstellen wollen, was aber nicht ganz funktinionierte. Radiance konnte man einstellen, aber nicht High Contrast. Und jetzt, nachdem ich die VM heute gestartet habe (den Status habe ich pausiert) und ein bisschen in Betrieb hatte, änderte sich das Design plötzlich zu High Conrast, aber nur teilweise. Die Unity-Bar (oder wie die auch immer heißt) und die Statusleiste sind noch auf Ambiance. Bei Radiance änderen sich diese übrigens auch nicht.
Zwischendrin hat er auch wieder fleißig gehangen. Wollte den Firefox starten, das hat er aber nicht gemacht. Nach ein paar Versuchen kam dann eine Meldung, dass der Prozess schon läuft. Musste dann die Prozesse abschießen (beenden ging nicht), dass ihn richtig starten konnte. Dieses Verhaltensmuster habe ich aber auch schon unter Windows erlebt. Ganz viele Prozesse offen, aber kein Fenster. Wenn man sie alle geschlossen hat, gehts.
Ist es in irgendeiner Weise schädlich, einen Prozess abschzuschießen, abgesehen davon, dass dabei Daten verloren gehen können?
Lookbehind
10.06.2013, 10:57
Also hier nochmal:
http://upload.worldofplayers.de/files9/Screenshot_from_2013_06_06_184328.png
Ein hoch auf GTK3 :mad:
Das ist kein KDE-Theme, das ist das Fall-Back, falls er kein funktionierendes Theme finden kann.
Derzeit herrscht reichlich Mischmasch von Programmen die noch GTK2 verwenden, und welchen die das, scheinbar noch nicht ganz ausgereifte, GTK3 verwenden. Manche Themes bekommen es hin, beide Seiten zu bedienen, andere, nicht... und da kommt dann mitunter sowas bei raus. Wobei GTK2 Erfahrungsgemäß weit weniger Probleme macht.
...
Zwischendrin hat er auch wieder fleißig gehangen.
...
Kann es sein, dass deine VM etwas schwach auf der Brust ist?
Bzw. Wenn du ein 12.10 oder Später mit Unity verwendest, dürfte die Grafik-Leistung die Schwachstelle sein. Seit der Version wird von Unity nämlich eine 3D-Karte simuliert, wenn keine physische vorhanden ist, um die ganzen 3D-Effekte darstellen zu können. Was grade in einer VM zu echten Performance-Problemen führen kann.
Was sich Canonical dabei gedacht hat, raff ich auch nicht ganz.
Ist es in irgendeiner Weise schädlich, einen Prozess abschzuschießen, abgesehen davon, dass dabei Daten verloren gehen können?
Ja, es können Daten dabei verloren gehen. :)
Nein, abgesehen von den verlorenen Daten, hat es nur noch die Folge, dass die Funktionalität, die der Prozess bereitstellt, nicht mehr zur Verfügung steht. Was bei gewissen Prozessen halt ein paar unangenehme Nebenwirkungen haben kann... :D Wenn du dir zum Beispiel Alsa oder Pulse terminierst, darfst du dich halt nicht wundern, wenn du keinen Sound mehr hast.
Und wenn du den Init-Prozess abschießt, ... ... hm, ... funktioniert dann eigentlich überhaupt noch was? :D
Ist es in irgendeiner Weise schädlich, einen Prozess abschzuschießen, abgesehen davon, dass dabei Daten verloren gehen können?
Das Kommt Darauf An™.
Mit SIGTERM sollten die meisten Prozesse sich ordnungsgemäß beenden können, was den Datenverlust minimiert. Bei SIGKILL dagegen wird "hart" beendet, da gibt es dann keine Datenkonsistenz mehr. User-Anwendungen kann recht problemlos beseitigen, bei Systemdiensten hängt es halt davon ab, ob sie gebraucht werden. Unsterblich sind Prozesse im "uninterruptible sleep" (Status D), die i.d.R. auf I/O warten. Und Zombies kann natürlich gar nicht killen, weil die nicht mehr da sind. Da muss man sich dann an den Elternprozess halten.
Und wenn du den Init-Prozess abschießt, ... ... hm, ... funktioniert dann eigentlich überhaupt noch was? :D
Hängt vom genauen Unixsystem und dem jeweiligen Init ab. Manche werten es als Anforderung, das System herunterzufahren. Andere schützen es vor solchen Zugriffen. Sollte der Initprozess tatsächlich mal sterben (egal ob durch nicht abgefangenes Kill oder durch einen Absturz), weiß der Linuxkernel nicht mehr, was er nun machen soll und es gibt eine Panic: "attempted to kill init"). Ist in der exit.c definiert.
Lukasweb
23.06.2013, 15:16
Hab da mal wieder eine Frage:
Das Notebook meiner Schwester (HP Compaq Presario) läuft seit einiger Zeit extrem langsam. Es hängt sich paar Minuten auf, sodass man es neustarten muss. Nun wollte ich es einfach mal neuinstallieren, da es mittlerweile auch schon drei Jahre alt ist. Allerdings kann man den Key an der Unterseite nicht mehr lesen. Es heißt ja, beim OEM-Windows wäre der von Key Findern angezeigte Schlüssel nur der OEM-Schlüssel des Herstellers, den er für ganz viele Notebooks verwendet. Kann man den jetzt den Schlüssel für die Neuinstallation verwenden?
Außerdem könnte es ja sein, dass das BS angepasst sein muss, und sonst nicht richtig funktioniert, auch wenn man Netzwerktreiber etc. auf der Herstellerwebsite herunterladen kann. Oder kann man hier sicher gehen?
Ansonsten müsste ich es über die Recoverypartition machen, allerdings wäre mir ein sauberes BS lieber.
Memtest86+ 4.2 habe ich übrigens mal testen lassen (allerdings auch nur eine halbe Stunde), kein Fehler gefunden. Allerdings ist die Idle Temperatur sehr hoch (bis zu 75 Grad), da müsste der Lüfter mal enstaubt werden und die Wärmeleitpaste neu aufgetragen werden.
Lukasweb
06.07.2013, 14:31
Es geht mal wieder um meine Ubuntu-VM. Und zwar öffnet sich das Terminal seit kurzem standardmäßig so lang, dass es sich senkrecht über mehrere Arbeitsflächen erstreckt. Das muss dann erst mal kleiner gezogen werden. Was kann man da tun?
Und weiß jemand, wie ich die Fehlermeldung jedesmal nach dem Booten (siehe Post #119) wegbekomme?
Es geht mal wieder um meine Ubuntu-VM. Und zwar öffnet sich das Terminal seit kurzem standardmäßig so lang, dass es sich senkrecht über mehrere Arbeitsflächen erstreckt.
Hängt vom jeweiligen Terminalprogramm ab. Bei manchen kann man das irgendwo einstellen. Ich benutze ja Kubuntu mit KDE und dort kann Konsole (das KDE-Terminalprogramm) so eingestellt werden, dass es sich beim Beenden die aktuelle Größe merkt und beim nächsten Mal wiederherstellt.
Lukasweb
17.07.2013, 19:01
Hallo,
melde mich mal wieder mit einem Problem:
Seit einiger Zeit bleibt manchmal beim Surfen die Maus für ca 2 sec. hängen. Danach geht sie wieder ganz normal, aber es ist noch ein Piepton zu hören.
Da das nur selten passierte, hab ich erstmal nichts gemacht. Doch vorhin kam das plötzlich alle paar Sekunden teilweise. Ein Piepen war dann nicht mehr zu hören. Es fiel auch auf, dass nicht nur die Maus, sondern scheinbar Windows kurz hängen geblieben ist. So war das auch bei den vorherigen Hängern mit Piepen (bei Strg+Alt+Entf wurde der Bildschirm kurz schwarz, als er dann erschien, war das Piepen kurz zu hören). Außerdem war der Mauszeiger teilweise rot-gelb und blieb in Zuständen hängen (z.B. Fenster vergrößern).
An einem anderen USB-Port war es das Gleiche und auch bei einer anderen Maus hatte ich das Problem.
Nach dem Neustart hatte ich bis jetzt das Problem nicht mehr, aber es kann sehr gut sein, dass es wieder kommt.
Komischerweise ist jetzt aber ein nicht einfach entfernbares Heimnetzgruppensymbol auf dem Desktop. Evtl. hat er das vom Explorer rüber gezogen (wobei das dann eigentlich eine Verknüpfung sein müsste).
Hier der Link zur msinfo32.txt:
http://upload.worldofplayers.de/files9/msinfo32_2.txt
Im Wiederholungsfalle kann man folgendes versuchen:
Tritt das Problem auch im abgesicherten Modus auf?
Sofern die Maus über einen Hub verbunden ist, passiert es auch, wenn man sie direkt hinten am Mainboard einsteckt?
Ist es ein USB3 oder ein USB2-Port? Passiert es auch am jeweils anderen?
Tritt das Problem auch auf, wenn alle Geräte außer Maus und Tastatur abgeklemmt sind?
Kommt der Piepton aus den Lautsprechern an der Soundkarte, dem PC-Speaker am Mainboard oder von woanders?
Passiert es bei anderen Browsern?
Illuminatum
18.07.2013, 15:02
Hallo Leute,
ich bin gerade dabei, einen UniFi Controller (Ubiquiti) auf meinem Linux Mint 15 xfce Gerät zum Laufen zu bringen. Zurzeit läuft er, aber nur dank wine und mit wine installiert. Nativ unter Linux kriege ich das nicht zum Laufen. Hier ein Link:
http://community.ubnt.com/t5/UniFi-Updates-Blog/UniFi-2-4-4-is-released/ba-p/488737
Ich habe java installiert und unifi, habe die sources.list aktualisiert und kann auch updates für unifi abrufen mit sudo apt-get update
Mit
java -jar pfad/zur/richtigen/jar.jar start muss ich laut der beiliegenden readme den controller starten. Aber es tut sich nichts :dnuhr:
Der Coursor springt nach Eingabe eine Zeile nach unten und bleibt dann da blinkend. Entweder bleibt das ständig so, oder er bringt mir die Meldung "Port 8080 ist not available" und bricht ab. Auch wenn ich diesen Befehl mit sudo starten will, kommt das gleiche Verhalten, bis auf dass ich halt das Admin PW eingeben muss.
Inzwischen hab ich herausgefunden, dass ich über
java -jar pfad/zur/richtigen/jar.jar discover ein 'Zweittool' starten kann, dass mir wenigstens mal alle existierenden UniFi-APs anzeigen kann, das ist immerhin schon mal was.
Hm...ansonsten kann ich vielleicht sagen, dass hier alles über DHCP läuft, mit nmap und eben dem discovery-tool finde ich den UniFi AP samt MAC...
Im Grunde ist diese Technik nicht schwer, auf Windows läuft das super; man installiert den UniFi Controller und kann dann per Tastenklick auf den internen Server verbinden über eine Weboberfläche und dort dann alles managen, mitsamt Grundriss des abzudeckenden Bereichs usw, sodenn man den das eingerichtet hat. :)
Kann mir jemand helfen? Ich weiß nicht, wo das Problem ist.
Danke mal!
MfG
Ich benutze die Software nicht, daher die Frage:
Hm...ansonsten kann ich vielleicht sagen, dass hier alles über DHCP läuft, mit nmap und eben dem discovery-tool finde ich den UniFi AP samt MAC...
Du hast also die Jar-Datei ausgeführt und bist wieder auf der Shell gelandet. Und du findest anschließend den AP per Discover. Also funktioniert doch alles, oder nicht? Der Prozess wird sich einfach vom Terminal abgekoppelt haben und im Hintergrund laufen. Was genau ist also das Problem?
Illuminatum
18.07.2013, 17:00
Du hast also die Jar-Datei ausgeführt und bist wieder auf der Shell gelandet. Und du findest anschließend den AP per Discover. Also funktioniert doch alles, oder nicht? Der Prozess wird sich einfach vom Terminal abgekoppelt haben und im Hintergrund laufen. Was genau ist also das Problem?
Richtig, über den java -jar bla.jar discover Befehl startet das Discovery Tool.
Den java -jar bla.jar start Befehl startet aber den Controller nicht. Zumindest unter Windows öffnet sich dort ebenfalls ein 'anderes' Fenster, das macht es bei Linux nicht. Dort staret eben nur discovery Befehl.
Ich weiß ja auch nicht, warum das einmal geht und einmal nicht; der "Start" BEfehl ist auf jedenfall richtig, steht in der Programmierer-Readme.
MfG
Also laut http://wiki.ubnt.com/UniFi soll man das Ding über die Paketverwaltung installieren und dann über den Browser auf Port 8443 konfigurieren.
Kann es sein, dass das Fenster, was bei dir unter Windows aufging, eben einfach der Browser mit der Webaccess-Oberfläche war? Und dass du dass hier nun selbst aufrufen musst?
Lukasweb
20.07.2013, 20:36
Das Problem ist mit dem Hängen der Maus ist bis jetzt nur noch einmal vorgekommen.
Allerdings hätte ich noch eine andere Frage:
Hättest du evlt. einen guten Artikel, der anschaulich über Verschlüsselung (z.B. AES) informiert? Hier gibt es ja auch einfache Formen, z.B. XOR-Schalten des Binärcodes.
Aber wie so etwas mit einem öffentlichen und privaten Schlüssel funktionieren soll, ist mir nicht ganz klar. Im Falle vom XOR-Schalten wäre ja öffentlicher gleich privater Schlüssel.
Richtig, bei XOR wird ein gemeinsames Geheimnis zum Ver- und Entschlüsseln benutzt. Deshalb nennt man das auch symmetrische Verschlüsselung. Ist (samt seiner Varianten) übrigens die einzige Methode, bei der man die „Unkackbarkeit” mathematisch beweisen kann, sofern der Schlüssel mindestens so lang ist wie die Nachricht und echt zufällig.
Bei den asymmetrischen Verfahren wird übrigens auch intern symmetrisch gearbeitet. Es wird zuerst ein Session-Key erzeugt, mit dem symmetrisch verschlüsselt wird und erst dieser Key wird dann asymmetrisch verschlüsselt. Hat Performance-Gründe. Asymmetrisch ist langsam, daher verschlüsselt man die große Nachricht symmetrisch und nur den kleinen Session-Key wirklich asymmetrisch.
Was genau willst du denn wissen? Interessieren dich die mathematischen Grundlagen oder geht es dir nur um die Anwendung? Und falls letzteres, was genau soll verschlüsselt werden – Dateien? E-Mails? Partitionen?
Lolomoloko
21.07.2013, 10:01
Bei den asymmetrischen Verfahren wird übrigens auch intern symmetrisch gearbeitet. Es wird zuerst ein Session-Key erzeugt, mit dem symmetrisch verschlüsselt wird und erst dieser Key wird dann asymmetrisch verschlüsselt. Hat Performance-Gründe. Asymmetrisch ist langsam, daher verschlüsselt man die große Nachricht symmetrisch und nur den kleinen Session-Key wirklich asymmetrisch.
Das ist so nicht richtig. Assymetrische verfahren arbeiten nicht symmetrisch.
Was du hier beschreibst ist ein kombiniertes anwendungsszenario von asymmetrischen und symmetrischen verfahren wie es z.B. ssl/tls macht.
Das ist so nicht richtig. Assymetrische verfahren arbeiten nicht symmetrisch.
Hängt von der Definition ab. Natürlich kann ein asymmetrischer Algorithmus nicht wirklich symmetrisch sein, das wäre ja so als würde man von einem protestantischen Papst sprechen. Also ergibt sich eigentlich aus dem Kontext (dachte ich zumindest), dass Verfahren gemeint sind, die nach außen so aussehen als wären sie asymmetrisch (also auf Anwendungsebene mit einem geheimen und öffentlichen Schlüssel arbeiten).
Und das betrifft nun mal fast alle in der Praxis relevanten Verfahren (u.a. eben SSL, aber auch PGP, SSH, S/MIME, etc. pp.).
Lukasweb
21.07.2013, 21:11
Mich interessieren hierbei die mathematischen Grundlagen, praktisch ist das ja kein Problem (siehe GPG, Truecrypt etc.). ;)
Hmm... mit 16 gehst du wohl noch zur Schule. Jetzt weiß ich nicht, wie weit ihr da in Mathe mit den algebraischen Grundlagen für die Kryptologie (Ringe, Körper, Abbildungen und solches Gedöhns) seid. Das könnte sich als noch ein bisschen sehr anspruchsvoll für dich erweisen. Und für mich ist es eine Weile her, da lässt die Erinnerung langsam nach. ;)
Gaaaaaanz stark vereinfacht kann man sagen:
AES (Festplattenverschlüsselung & Co.) basiert darauf, die Nachricht und den Schlüssel zweidimensional aufzuschreiben (wie eine Tabelle mit Zeilen und Spalten) und dann alles über mehrere Runden lustig zu verwürfeln und miteinander zu verrechnen (schicke Animation des Algorithmus: http://www.formaestudio.com/rijndaelinspector/archivos/Rijndael_Animation_v4_eng.swf).
RSA (E-Mail-Verschlüsselung & Co.) basiert auf der Idee, dass es zwar relativ einfach ist, zwei sehr große Primzahlen (also „groß” im Sinne von: mehrere Tausend Stellen lang) miteinander zu multiplizieren. Aber dass es kein wirklich effizientes Verfahren gibt, ein solches Produkt wieder in seine Primfaktoren zu zerlegen.
Ansonsten einfach mal googeln.
Lolomoloko
22.07.2013, 08:31
Mich interessieren hierbei die mathematischen Grundlagen, praktisch ist das ja kein Problem (siehe GPG, Truecrypt etc.). ;)
als mathematische grundlagen sollte man sich etwas mit (kryptographischen) hashfunktionen auskennen.
also die eigenschaften die eine hashfunktion haben sollte, nicht dass man welche selbst entwerfen können sollte (das ist hart).
ein bisschen gruppentheorie könnte auch nicht schaden, das ist aber auch ohne größere probleme machbar.
zum einstieg eignet sich bei den symmetrischen verfahren wohl am besten die (einfachen) blockchiffren.
Diese sind vom aufbau noch leicht zu veranschaulichen und man sieht gut die funktionsweise und generelle probleme.
bei assymetrischen verfahren ist RSA gut geeignet. ElGamal wäre auch noch einen blick wert. (+ die dazugehörigen signaturverfahren)
die sicherheit bei diesen verfahren baut darauf auf, dass es schwer ist ein gewisses problem zu lösen.
Bei RSA wäre das die faktorisierung und bei ElGamal der diskrete logarithmus (siehe auch diffie-hellman problem (CDH)).
Weiterhin interessant sind schlüsseltausch protokolle. (needham-schroeder, diffie-hellman, …)
Hier ist es auch wichtig, dass man auch den angreifer spezifizieren muss.
Stärkere angreifer sind besser, da man dort größere "sicherheit" gewinnt. (oft dolev/yao angreifer)
Und nicht vergessen sollte man auch, was man überhaupt erreichen will.
security vs. safety und confidentiality, integrity, availability (CIA)
Illuminatum
22.07.2013, 09:20
Also laut http://wiki.ubnt.com/UniFi soll man das Ding über die Paketverwaltung installieren und dann über den Browser auf Port 8443 konfigurieren.
Kann es sein, dass das Fenster, was bei dir unter Windows aufging, eben einfach der Browser mit der Webaccess-Oberfläche war? Und dass du dass hier nun selbst aufrufen musst?
Kann sein, muss ich demnächst noch testen. Danke mal :)
Andere Frage: Ich bin auf der Suche nach einer Netzwerkkarte, die man per USB anschließen kann. Sie muss aber unter Linux laufen. Und zwar ohne manuelle Treiberinstallation (da ich diese für LiveSysteme benutzen möchte, bei denen die eingebaute Netzwerkkarte nicht erkannt wird).
Kann mir da jemand helfen? Hat jemand Erfahrungen gesammelt?
Danke :)
MfG
Andere Frage: Ich bin auf der Suche nach einer Netzwerkkarte, die man per USB anschließen kann. Sie muss aber unter Linux laufen. Und zwar ohne manuelle Treiberinstallation (da ich diese für LiveSysteme benutzen möchte, bei denen die eingebaute Netzwerkkarte nicht erkannt wird).
In dem Fall spricht man nicht von „Karte”, sondern von „Ethernet-USB-Adapter”. Mit dem Begriff, in Verbindung mit „Linux”, wirst du dann auch sehr schnell fündig. Wenn du auf Nummer Sicher gehen willst, empfehle ich, einfach mal in die Kernelkonfiguration des von dir verwendeten Livesystems zu gucken. Da steht dann, welche USB-Adapter unterstützt werden.
http://www.linux-usb.org/usbnet/
http://www.linux-hardware-guide.com/2013-04-21-digitus-dn-3023-gigabit-ethernet-usb-3-0-adapter
http://www.linux-hardware-guide.de/2012-11-01-logilink-usb-ethernet-adapter-ua0025c
Lukasweb
23.07.2013, 20:38
@Foobar Ich hab mir deine Animation mal angeschaut. Habs weitesgehend versteht, abgesehen von der Modulo Multiplikation (MixColums). Außerdem ist mir nicht ganz klar, wie dieses Rcon mit dem vorherigen Spalten addiert wird.
Werden der zu verschlüsselnde Text immer in 4x4er Blöcke aufgeteilt? Falls ja, was ist dann, wenn der Key länger oder kürzer ist?
Werden der zu verschlüsselnde Text immer in 4x4er Blöcke aufgeteilt?
Bei AES legt die Blockgröße auf 128 und die Schlüssellänge auf 128, 192 oder 256 Bit fest. Der Schlüssel hat dann mehr Spalten.
Im Grunde ist der Sinn der Sache ja gerade, einen langen Schlüssel zu erzeugen. Ich hatte weiter oben schon geschrieben, dass XOR mathematisch beweisbar nicht geknackt werden kann (d.h. nicht schneller als durch Brute-Force). Für AES gilt das nicht. Also warum nimmt man XOR nicht, wenn doch schon weiß, dass es sicher ist?
Weil’s unpraktisch ist. Das gilt nämlich nur, wenn der Schlüssel wirklich zufällig ist und außerdem mindestens so lang ist wie die Nachricht. Stelle dir mal vor, du willst eine 2 TB große Festplatte verschlüsseln und dann geht ein Fenster auf und du sollst einen 2 TB langen Schlüssel eingeben. Da wärst du eine Weile am Tippen. Oder du müsstest dir eine zweite, genau so große Platte kaufen, auf der dann der Schlüssel liegt und die du im Safe wegschließen musst, wenn sie gerade nicht gebraucht wird.
Man will also Schlüssel, mit denen man hantieren kann. Die Nachrichten können aber beliebig lang sein. Was macht man also? Man könnte den Schlüssel einfach immer wiederholen, so oft, wie die Nachricht halt lang ist. Aber das wäre schlecht, denn die Wiederholungen würden Muster im Chiffretext erzeugen, an denen man ansetzen kann, um den Code zu knacken.
Das meiste des ganzen Gerödels dient letztlich einfach dazu, den vorhandenen Schlüssel begrenzter Länge so zu erweitern, dass er lang genug für die Nachricht ist und trotzdem noch möglichst zufällig erscheint und in der Chiffre keine Muster entstehen. AES macht das auf seine Weise, andere Blockchiffren versuchen es mit anderen Tricks, aber das Problem ist immer das gleiche. Und wenn der Schlüssel bereits länger ist, ist das natürlich besser, weil man dann mehr hat, mit dem man arbeiten kann.
Lukasweb
25.07.2013, 18:29
Dann noch eine Frage:
Bei vielen Verschlüsselungsprogrammen, z.B. TrueCrypt, wird ja nicht nach dem Schlüssel, sondern nach einem Passwort gefragt. Das müsste ja heißen, dass der Schlüssel ja auf der Festplatte liegt. Wie schafft man hier Sicherheit?
Hängt vom Verfahren ab. Manchmal ist das Passwort der Schlüssel, manchmal wird der Schlüssel aus dem Passwort erzeugt und manchmal ist der eigentliche Schlüssel mit dem Passwort verschlüsselt.
Lukasweb
27.07.2013, 11:10
Okay, Danke. Bei TrueCrypt muss es sich dann um die Verschlüsselung mit dem Passwort handeln, denn der Schlüssel wird durch Mausbewegungen erzeugt.
Das Problem mit der Maus hatte ich übrigens nur noch ein Mal und das ist auch schon wieder ein paar Tage her. Hoffentlich kommt das nicht wieder.
Dafür schafft meine Ubuntu-VM nicht, einen USB-Stick zu erkennen. Eigentlich müsste Ubuntu gleich fragen, was es damit machen soll, aber scheinbar merkt es das gar nicht. Der Stick ist dann auch nicht unter Devices im Nautilus zu finden. Das liegt wahrscheinlich nicht an Ubuntu, sondern an der VM. Allerdings ist der USB-Controller in den Einstellungen aktiviert und auf USB 2.0 gestellt. Auch mit einem anderen Stick ging es nicht. Auf dem Host werden die Datenträger aber natürlich erkannt.
Auto-Mounting ist zwar nett, aber nicht nötig. Wenn der Stick vom Kernel erkannt wird, sieht man das beim Einstecken im Syslog. Dort steht dann auch der Gerätename, unter dem er registriert wurde. Damit kann ihn man einfach von Hand ins Dateisystem einhängen.
Wenn er nicht erkannt wird, kann es sein, dass das Wirtssystem ihn bereits vorher in Beschlag genommen hat.
Lukasweb
30.07.2013, 16:27
Das wird es sein. Allerdings weiß ich nicht, was ich da jetzt machen soll, im Player sind alle möglichen Funktionen aktiviert.
VirtualBox kann gezielt USB-Geräte mit dem Gastsystem verbinden (die dann automatisch vorher beim Host abgemeldet werden). Man kann auch Filter definieren, um bestimmte Geräte immer automatisch der VM zuzuweisen.
Was der VMware Player da bietet, ist mir allerdings nicht bekannt.
Lukasweb
02.08.2013, 12:58
Vielleicht sollte ich den Player mal deinstallieren und stattdessen Virtual Box nehmen, der hat mir eh schon genug Probleme bereitet.
Lukasweb
26.08.2013, 12:45
Du bist ja auch im Risen-Forum aktiv, vielleicht kannst du mir da helfen:
Wenn ich Risen 2 über Steam starte, bleibt erst mal der Bildschirm für eine Zeit schwarz. Das dauert dann gefühlt bis zu einer Minute, bis die Einblendungen von Entwickler und Publisher kommen. Evtl. ist das auch ein Steam-Problem, allerdings ist Risen 2 das einzige Steam-Spiel, das ich im Moment installiert habe.
Lookbehind
26.08.2013, 16:07
Du bist ja auch im Risen-Forum aktiv, vielleicht kannst du mir da helfen:
Wenn ich Risen 2 über Steam starte, bleibt erst mal der Bildschirm für eine Zeit schwarz. Das dauert dann gefühlt bis zu einer Minute, bis die Einblendungen von Entwickler und Publisher kommen. Evtl. ist das auch ein Steam-Problem, allerdings ist Risen 2 das einzige Steam-Spiel, das ich im Moment installiert habe.
Wenn du doch schon erkennst, dass es ein Risen-Thema ist, dann könntest du deine Frage doch auch gleich im Risen-Forum stellen. Wäre das nicht sinnvoller?
Lukasweb
06.09.2013, 20:43
Wenn man Windows und Linux in Hinsicht Server- und Netzwerktauglichkeit vergleicht, wird meistens Linux als besser beschrieben. Woran liegt das eigentlich genau? An der Stabiliät, Anpassbarkeit oder Ressourceneinsparung?
Und in welcher Hinsicht ist Debian hier besser als Ubuntu?
Das ist hysterisch gewachsen. Windows war ursprünglich als reines Desktop-System für Einzelplatzrechner geplant. Netzwerk war lange Zeit überhaupt kein Thema. Vernünftige Netzwerkfunktionalität kam erst relativ spät dazu und selbst dann war Windows darauf ausgelegt, in einem geschlossenen und vertrauenswürdigen LAN betrieben zu werden, wo man sich keine großen Gedanken um Dinge wie Sicherheit oder Skalierbarkeit machen musste. Das Internet hat Microsoft ja lange verschlafen. Und viele Erblasten aus dieser Zeit schwingen noch heute mit.
Umgekehrt ist Linux ein Kind des Internets. Es ist über das Internet entwickelt und verbreitet worden und war dementsprechend von Anfang an darauf ausgelegt, auch im Internet betrieben zu werden. Außerdem ist es ein Unixderivat und Unix war eben früher das wichtigste bei Großrechnern (u.a. eben auch Internetservern) verwendete System. Entsprechend erbt es dann auch die Vorzüge (Skalierbarkeit, Wartungsfreundlichkeit, Standardisierung etc.)
Und dann ist da noch die Sache mit den Lizenzkosten, die Linux einfach für viele attraktiv machen.
Welche Distri besser geeignet ist, kann man allgemein kaum beantworten. Das hängt von anderen Faktoren ab.
Lukasweb
19.09.2013, 20:14
Ich hatte nun mal wieder das Problem bzgl. der hängenden Maus. Im Prinzip hängt dann für diese Zeit das ganze System. Losgegangen ist das mit dem plötzlichen Absturz von Libre Office. Das Dokument konnte nicht wiederhergestellt werden, war aber durch Speichern und Öffnen wieder aufrufbar. Von da an blieb aber alle 10 bis 15 Sekunden das System hängen, abgesehen davon färbte sich der Cursor wieder bunt. Also bin ich wieder in den Energie Spar-Modus. Das hat sehr lange gedauert. Erst ist der Bildschirm schwarz geworden, für 20 Sekunden liefen die Lüfter dann aber noch weiter, am Ende auf Hochtouren, bis er endlich im ES-Modus war. Nach dem ebenfalls langem wieder hochfahren, kam die Meldung im Systray, dass der Anzeigetreiber aufgrund eines Fehlers wiederhergestellt wurde. Jetzt geht wieder alles. Dieses Problem habe ich auch nur ziemlich selten. Es hängt scheinbar mit der Grafikkarte zusammen, was ich da jetzt aber tun soll, weiß ich nicht.
Jetzt ist mir aber noch aufgefallen, dass die das gesamte Feld mit den Formatierungssymbolen oben beim Eintrag verfassen unscharf ist. Ein ähnliches Problem hatte ich schon mal vor über 2 Jahren mit eine anderen Grafikkarte, aber das ist eine längere Geschichte, die ich ggf. mal schreiben werde, jetzt habe ich keine Zeit.
Eduard Bär
20.09.2013, 05:35
Hm, die Grafikkarte schießt aber eigentlich keine Programme, wie z.B. Libre Office ab.
Entweder du guckst während dem Problem mal ins top, da kann man dann vielleicht erkennen ob das System an irgendeiner Stelle ausgelastet ist, oder du wirfst mal einen Blick ins Syslog (/var/log/syslog), vielleicht stehen da ja nützliche Informationen drin.
Du könntest auch mal den RAM testen, dafür gibts das Programm memtest welches du beim Booten im Grub auswählen kannst (wenn es denn installiert ist).
Lukasweb
20.09.2013, 19:43
Achso, das habe ich jetzt hier nicht noch mal explizit geschrieben. Das Problem hatte ich auf meinem Windows-Guest-System, nicht unter Linux. Denn dieser Thread hier wird auch für andere Probleme verwendet.
Lukasweb
01.10.2013, 18:35
Und es hört nicht auf. Hab gerade mal die hier vorgestellten Befehle nachvollzogen:
http://www.youtube.com/watch?v=PEa1xopeufQ
Zunächst mal (sudo) dhclient, aber ifconfig meldete darauf keine andere IP-Adresse. Sie lautete in etwa "Ubuntu hat ein Problem".
Und als ich mal die Netzwerkdienste über sudo etc/init.d/networking restart. Dazu kam noch eine Fehlermeldung, die ich jetzt aber leider nicht richtig abgespeichert habe. Ein Fehler kam nicht, nur ein paar Infos bzgl. des Befehls. Abhilfe hat es aber auch nicht geschaffen. Abgesehen sind seit diesem Zeitpunkt wieder viele Elemente der Unity-GUI ausgetauscht, was schonmal der Fall war (Post #119).
Und zu guter Letzt ist jetzt auch noch Copy & Paste aus der VM nicht mehr möglich.
Es ist ja auch nicht so, dass das die einzigen Probleme sind, die ich habe. Die VM ist auch sehr langsam, reagiert oft zu spät, vorhin war sie nach dem Neustart von der Pausierung komplett aufgehangen. Und die Auflösungsfehlermeldung jeden Start hab ich auch noch.
http://forum.ubuntuusers.de/topic/aufloesungsfehlermeldung-loswerden/
Ich arbeite ja nur nebenbei und nicht oft mit der VM, also frage ich mich schon, wie man damit so viele Probleme haben kann. Geht das nur mir so?
Und es hört nicht auf. Hab gerade mal die hier vorgestellten Befehle nachvollzogen:
http://www.youtube.com/watch?v=PEa1xopeufQ
Zunächst mal (sudo) dhclient, aber ifconfig meldete darauf keine andere IP-Adresse. Sie lautete in etwa "Ubuntu hat ein Problem".
Und als ich mal die Netzwerkdienste über sudo etc/init.d/networking restart. Dazu kam noch eine Fehlermeldung, die ich jetzt aber leider nicht richtig abgespeichert habe. Ein Fehler kam nicht, nur ein paar Infos bzgl. des Befehls. Abhilfe hat es aber auch nicht geschaffen.
Die Befehle und Mechanismen, die der Typ in dem Video erklärt, sind die grundlegenden Primitiva, die alle Linuxe unterstützen. Ubuntu (und einige andere Distris) setzen darüber jedoch auf Zusatzsoftware, die diese rein textbasierten Befehle vor den Nutzern versteckt. Denn man darf Benutzern ja keine Kommandozeile zumuten (jedenfalls ist das das offizielle Dogma).
Bei neueren Ubuntus heißt dieser Softwareaufsatz „NetworkManager”. Solange der läuft, solltest du nicht im Hintergrund an den Interface rumspielen, weil es dann zu Inkonsistenzen kommen kann. Also entweder lässt du den NetworkManager deine Schnittstellen verwalten oder du schaltest ihn ab und verwaltest sie selber. Aber nicht beides gleichzeitig.
Ansonsten gilt wie immer: Ohne die exakte Fehlermeldung und genaue Problem-Beschreibung ist eine Diagnose immer schwierig (Lesetipp (http://www.tty1.net/smart-questions_de.html)).
Abgesehen sind seit diesem Zeitpunkt wieder viele Elemente der Unity-GUI ausgetauscht, was schonmal der Fall war (Post #119).
Wie bereits gesagt: Das liegt i.d.R. an den Toolkits, von denen es bei Linux mehrere gibt. Ok, erstmal der Einschub: Was ist ein Toolkit? Der X-Server selbst, der für die Grafik zuständig ist, erlaubt nur ganz primitive Sachen (Linien und Rechtecke und Kreise malen und solche Sachen). Damit nun nicht jedes Programm selbst seine gesamte GUI mühselig von Hand zeichnen muss, gibt es Bibliotheken, die das abstrahieren. Das Programm bindet die Bibliothek ein und muss dann nur noch sagen: Hier will ich eine Schaltfläche, da will ich eine Auswahlbox, dort ein Eingabefeld und so weiter. Und das dann alles auf den Schirm zu zeichnen und mit Funktionalität zu hinterlegen (also dass z.B. der Knopf sich drücken lässt), darum kümmert sich dann die Bibliothek. Solche Bibliotheken nennt man auch Toolkits. Da Linux frei ist und da keiner für alle verbindlich entscheidet, gibt es (wie so oft) verschiedene konkurrierende Ansätze. Aktuell sind das vor allem QT und GTK, aber bei alter Software kann einem durchaus auch heute nochmal ein XForms oder Motif über den Weg laufen. Speziell bei GTK hat man dann noch das Problem, das gerade zwei Versionen kursieren – GTK3 und GTK2 – und die nicht zueinander kompatibel sind.
Da die Toolkits für das Malen zuständig sind, muss man, wenn alle Programme gleich aussehen sollen, dies den jeweiligen Toolkits beibringen. Dazu müssen diese zunächst mal überhaupt die Fähigkeit haben, sich im Aussehen anpassen zu lassen (QT und GTK können das aber). Wie die Toolkits dann aussehen, bestimmt das Thema (bzw. engl. Theme). Man braucht also identische Themes für alle Toolkits, die man benutzt. Und muss die dann so einstellen, dass sie diese Themes auch benutzen. Bei KDE ist das ein kleines Häkchen in den Systemeinstellungen, um zwischen QT und GTK zu synchronisieren. Was man bei Unity machen muss, kann ich dir nicht sagen, da ich diese Software nicht benutze.
Und zu guter Letzt ist jetzt auch noch Copy & Paste aus der VM nicht mehr möglich.
In der Regel läuft das über einen speziellen Treiber, der in der VM installiert werden muss. Wenn der nicht mehr richtig läuft (z.B. veraltet), geht es halt nicht. Bist du immer noch bei VMware?
Ich arbeite ja nur nebenbei und nicht oft mit der VM, also frage ich mich schon, wie man damit so viele Probleme haben kann. Geht das nur mir so?
Ich arbeite ja anders herum (Linux als Host und Windows als Gast) und VirtualBox statt VMware, aber bei mir geht eigentlich alles, was man von einer VM halt erwarten darf. Richtig rockt Linux natürlich nur in einer nativen Installation. ;)
Lukasweb
30.10.2013, 13:37
Hier mal wieder ein Problem, das auch zum Threadtitel passt. Und zwar wollte ich auf meiner Ubuntu-VM den Rechnernamen von ubuntu zu ubuntu-vm ändern (ich denke, die Zeichen sollten kein Problem sein). Dazu habe ich diesen Befehl eingegeben:
sudo /bin/hostname ubuntu-vm
Wenn ich dann denn Namen über "sudo /bin/hostname" abfrage, kommt zwar ubuntu-vm, dies wird aber nicht im Terminal angezeigt. Außerdem kommt bei allen sudo-Befehlen die Meldung:
sudo: unable to resolve host ubuntu
Auf die Ausführung des Befehls hat das allerdings keine Auswirkungen.
Der hostname in der /etc/hosts wurde auch geändert. Dort steht jetzt:
127.0.0.1 localhost
127.0.1.1 ubuntu-vm
Der Aufruf von "hostname bla" ändert den Hostnamen nur für die aktuelle Sitzung auf "bla". Nach einem Neustart ist alles wieder beim alten. Außerdem kann es natürlich Dienste und Bibliotheken geben, die den alten Namen noch im Cache haben.
In der Praxis ist die einfachste Methode, den Hostnamen auf Debian-basierten Systemen (wie bspw. Ubuntu) zu ändern, ihn in die Datei /etc/hostname zu schreiben, die /etc/hosts anzupassen und einmal neu zu starten.
Lukasweb
31.10.2013, 21:00
Vielen Dank, so funktioniert´s. Ich hab übrigens schon länger nicht mehr gesagt, was das für ein fantastisches Forum hier ist, v.a. deinerseits. ;)
Zum Thema Netzwerke hätte ich da noch eine Frage:
Wie sind denn Pakete gestaltet, die vorher durch vom User angefordert wurden (also bspw. wenn er eine Website aufruft), dass die Firewall diese durchlässt, auch wenn kein Port offen sind. Schreibt der Router da mit, und lässt dann die Angefragten durch?
Da gibt es zwei Ebenen. Einmal das NAT (ohne zusätzlichen Paketfilter aka Firewall). Da läuft es im Grunde so ab, wie du schon vermutet hast.
Schickt also ein Rechner im LAN (bspw. mit der IP-Adresse 10.10.47.11) ein Paket an forum.worldofplayers.de (IP-Adresse 46.4.29.208), dann schreibt der Router die Absenderadresse auf seine öffentliche IP um. Ggf. schreibt er auch den Port um, falls der ursprünglich vom LAN-Rechner benutzte bei ihm bereits anderweitig belegt ist. Gleichzeitig merkt er sich in einer Tabelle, was er da umgeschrieben hat.
Wenn die WoP nun antwortet, finden die Antworten dank der Umschreibung ihren Weg zum NAT-Router zurück. Jetzt guckt der Router in seiner NAT-Tabelle nach, ersetzt Ziel-IP und -Port im Antwortpaket durch das des LAN-Rechner und schickt sie an diesen weiter.
Bei einzelnen TCP-Verbindungen klappt das recht gut. Probleme gibt es z.B., wenn über eine TCP-Verbindung eine weitere TCP-Verbindung auf einem anderen Port ausgehandelt wird (wie bspw. bei FTP) und der Router davon dann nichts weiß. Da muss der Router dann alle Protokolle, die sowas machen, verstehen und in die Pakete hinein gucken können, damit er das mitkriegt. Was natürlich einmal Rechenleistung kostet und dann auch ein Sicherheitsproblem sein kann, wenn das Protokoll im Router unsauber implementiert wurde (dann kann man nämlich beliebig Löcher in den „NAT-Schutz” schießen). Ein weiteres Problem sind verbindungslose Protokolle wie UDP, weil der Router ja nie sicher wissen kann, wann die „Verbindung” zuende ist. Da rät er dann halt mit Timeouts.
Hinzu kommen dann noch eventuelle Paketfilter. Da gibt es „Stateful Filter”, die ähnlich arbeiten wie beim NAT oben. Da dürfen Rechner aus dem LAN Verbindungen nach außen aufbauen (zumindest für einen gewissen Portbereich) und dann dürfen Pakete, die zu diesen Verbindungen gehören, auch wieder ins LAN hinein. Kann aber auch sein, dass der Filter anders konfiguriert wurde und bspw. einfach alles auf den Ports, die genutzt werden sollen/dürfen, durchlässt. Alles andere blockiert der dann.
Lukasweb
23.12.2013, 21:53
Mal eine vielleicht etwas merkwürdig klingende Frage:
Hättest ihr eigentlich Tipps, wie man sich gut und sinnvoll weiterbilden kann im Bereich Linux ( und evtl. Netzwerke)? Damit meine ich jetzt Sachen, die über normale Befehle wie Programminstallationen per apt-get hinausgehen, aber auch nicht total abwegig sind, also sinnvoll verwendet werden können. Natürlich könnte man sich wikis durchschauen, aber dann weiß ich ja nicht, was genau ich anschauen soll. Im Moment schaue ich jedenfalls öfters Videos bei diversen Youtube-Kanälen. Normalerweise kommt das ja so mit der Zeit, wenn man bestimmte Sachen braucht, dass man ein gewissen Repertoire aufbaut. Manchmal habe ich aber das Gefühl, dass ich was machen will, aber nicht weiß, was. Ich weiß jetzt nicht, inwieweit es überhaupt möglich ist, mir da jetzt zu helfen, da ihr ja nicht genau wisst, wie viel ich bis jetzt weiß, aber ich kanns ja mal versuchen. Was Linux angeht, habe ich jetzt selten mehr als die Standardbefehle benutzt. Was mich interessieren würde, wäre z.B. der/die verschiedenen Paketfilter. Dazu könnte man sich ja das hier durchlesen:
http://wiki.ubuntuusers.de/iptables2?redirect=no
Hätter ihr hierzu weitere vielleicht ein wenig anwendungsbezogenere Tipps?
Lookbehind
24.12.2013, 14:51
Hm, ich hab das immer so gehandhabt: Man wächst mit seinen Aufgaben.
Es gab eigentlich immer irgendwas, wo ich wenigstens Verbesserungspotential gesehen habe, oft auch etwas das noch gar nicht funktionierte. Nicht immer waren das wirklich wichtige Sachen, aber immer war es etwas zu tun.
Was mir im Umgang mit der Shell viel gebracht hat, war als ich mal Arch-Linux in eine VM installiert habe. Auch wenn ich dieser Distribution nicht treu geblieben bin, hat die wirklich manuelle Installation doch einige Einblicke in diverse Funktionsweisen und Hintergründe gebracht. Wichtig ist bei sowas natürlich auch immer, dass man an sich selbst den Anspruch hat, nicht einfach nur eine Reihe vorgegebener Befehle ab zu tippen, sondern dass man auch versteht was man da eigentlich macht und warum. Sonst ist der Lerneffekt fürn Eimer :)
Mit IPTables kann man sich auch ewig und 3 Tage beschäftigen. Is n tolles System :) Da vielleicht vor weg einige Netzwerk-Grundlagen durcharbeiten und sich gegebenenfalls auch mal ein wenig mit Server-Diensten beschäftigen. Einfach damit man den Sinn von solchen Paketfiltern auch versteht. Auch das ist ein riesiges Feld. Vor allem wenn man selbst ein kleines Netzwerk hegt und pflegt, wo man das ganze dann evtl auch mal praktisch anwenden kann.
Letztlich musst du wissen, in welchen Bereichen du dich weiter bilden willst. Was dich interessiert und was du brauchst, weißt nur du.
Frohes Fest wünscht
Lookbehind
Lukasweb
26.12.2013, 12:23
Danke, dir auch schöne Weihnachten. ;)
Ich glaube, ich werde mir jetzt mal Gentoo zu Gemüte führen. Das schult, denke ich, umfassend.
Keksinator73
02.01.2014, 11:25
Da dies hier ein extra dafür ausgelegter Thread ist, klinke ich mich hier mal mit ein.
Ich nutze derzeit Windwos 8 mit UEFI, möchte jedoch auch ein Linux (Ubuntu) Betriebssystem nutzen.
Nach einiger Recherche bin ich bei der Entscheidung zwischen dual boot und VM angekommen, jetzt weiß ich jedoch nicht weiter, was sich an dieser Stelle besser anbieten würde.
Als Vorteil sehe ich, dass sich bei der VM zwischen beiden Systemen variabel wechseln kann.
Ich bin jedoch etwas stutzig geworden, da ich der VM virtuellen Speicher zuweisen muss.
Da weiß ich leider nicht, ob dieser zugewiesene Speicher dem Windows Betriebssystem im Nachhinein koplett fehlt (sprich er ist der Ubuntu VM permanent zugeordnet), oder dieser festgelegte Speicher nur dann dem Ubuntu System bereit gestellt wird, wenn ich die VM auch laufen habe.
Desweiteren weiß ich nicht, ob die Einrichtung einer VM Nachteile im Gegensatz zum dual boot hat.
Naja, die VM knappst sich halt (wenn sie läuft) einen Teil deines RAMs für sich selber ab. Da musst du eben sagen, wieviel das sein soll.
Bei der VM-Lösung muss man dann noch schauen, was Gast und was Host sein soll. Also Windows nativ und Linux in der VM? Oder umgekehrt?
Grundsätzlich hat eine VM folgende Nachteile:
Die Hardware wird virtualisiert bzw. emuliert. Dadurch verliert man Performance. 3D-Beschleunigung, die über Google Earth & Co. hinaus geht (z.B. für aktuelle Spiele), ist in einer VM nicht zu erwarten. Da hilft nur Dualboot.
Da immer Resourcen für den Wirt übrig bleiben müssen, kann das System in der VM prinzipbedingt nie die maximale Leistung des Rechners für sich selbst beanspruchen. Beispielsweise die oben erwähnte Sache mit dem RAM. Hast du sagen wir mal 8 GB, kannst du nie die vollen 8 GB dem Gast zuweisen. Es muss immer auch was für den Wirt übrig bleiben.
Geht das Wirtssystem kaputt (aus welchem Grund auch immer), funktioniert auch der Gast nicht mehr. Bei Dualboot dagegen kann ein System kaputt gehen und dann hat man noch das andere, um schnell und unkompliziert im Internet nach Lösungen zu suchen, Daten zu sichern oder einfache Diagnosearbeiten am defekten System durchzuführen.
Bei der VM ist die virtuelle Festplatte des Gasts letztlich nur eine Datei auf dem Wirt. Geht auf dem Wirt das Dateisystem kaputt, sind im Zweifel auch die Daten in der VM futsch. Bei Dualboot dagegen fassen die beiden Systeme die Partitionen des jeweils anderen nicht einmal an (sofern man es nicht anders einrichtet), so dass sie voneinander isoliert sind. Selbst wenn man das Windows-Laufwerk unter Linux einbindet, hat ein Defekt am Linux-Dateisystem erst einmal keine Auswirkungen darauf.
Vorteile der VM:
Es ist relativ einfach, Schnappschüsse des Systems anzufertigen und wiederherzustellen. So kann man auch mal am System herum spielen und schnell wieder zum Ausgangszustand zurück, wenn es in die Hose ging. Zumindest bei VirtualBox ist dieses Feature bereits in der kostenlosen Fassung enthalten, VMware will AFAIK Geld dafür sehen. Unter nativem Linux geht das zwar auch, erfordert aber experimentelle Dateisysteme. Nicht unbedingt was für Einsteiger.
Allerdings kann man natürlich auch unter einem nativen Linux ein weiteres Test-Linux zum Herumprobieren in einer VM betreiben.
Schneller Wechsel und Datenaustausch.
Will man Linux nativ auf einem bereits bestehenden Windows-Rechner einrichten, hat sich Windows i.d.R. bereits alle Festplatten unter den Nagel gerissen. Da muss man erst einmal die Partitionierung anpassen, um Platz für Linux zu schaffen. In der VM braucht man das nicht.
Psychologisch vielleicht noch relevant ist der einfache Wechsel bei der VM: Hat man Linux in der VM, kann man zwar schnell wieder zurück zu Windows, wenn unter Linux irgendwas nicht will. Aber vielleicht ist es gar nicht so doof, wenn man bei einem Problem jedesmal "umständlich umbooten" muss. Dann sucht man vielleicht mal eher nach einer Lösung für das Linux-Problem, anstatt immer sofort auf die eingetretenen Windows-Pfade zu wechseln. Man wird quasi eher mal gezwungen, sich auch damit zu befassen und es zu lernen. Wie wichtig dieser Faktor aber letztlich ist, muss jeder für sich selbst entscheiden.
Ich persönlich hatte damals nicht die Wahl (brauchbare und erschwingliche Virtualisierungssoftware gab es seinerzeit noch nicht) und habe mit Dualboot meine ersten Schritte unter Linux gemacht. Hat sich also bewährt, der Ansatz. Heute habe ich immer noch ein Dualboot, benutze das Windows aber nur noch für Spiele (s.o.).
Keksinator73
02.01.2014, 13:38
Danke dir für deine ausführliche Antwort.
Das beruhigt mich schoneinmal, dass die Systemressourcen nur bei einer aktiven VM zugeteilt werden.
Ich habe es so geplant, dass mein Win 8 als Host und Ubuntu als Gast fungiert, ganz genauso wie du nutze ich Win 8 prinzipiell nur für Spiele, Linux soll daher quasi für "alles weitere" dienen.
Vor dem Linux/Win dualboot bin ich aus den Gründen von Frickeleien zurückgeschreckt, die da wären:
- Ich habe das Verhalten der Bootmanager (Grub 2 bei Linux) nicht ganz verstanden, ob bei der nachträglichen Linux Installation als dualboot der Bootmanager von Windows überschrieben wird, bzw. ersetzt wird.
- Ich suche generell einen sauberen Bootloader, der mir eine grafische Oberfläche bietet, bei der ich sauber zwischen Linux und Windows auswählen kann (Ich hatte damals ein dualboot mit Linux/ Win 7 ausprobiert und hatte lediglich mit einem textbasierten Bootloader zu kämpfen) und wie ich diesen im Anschluss installieren kann, bzw. ob der Grub 2 dafür schon ausreichend ist.
- Ich auch nach Recherche im Ubuntuwiki etc. nicht genau weiß, wie die UEFI Geschichte aussieht, heißt, ob es notwendig ist die Ubuntu DVD vor der Installation auch mit dem UEFI Bootloader zu starten.
(Win 8 läuft bereits unter UEFI)
- Und ob ich letzendlich noch weitere Dinge beachten muss, die ich einstellen sollte, bwsp. das deaktivieren von Fastboot in Win 8 hat mich aufhorchen lassen.
Nach deiner guten Erklärung habe ich mich letzendlich doch dafür entschieden sowohl ein dualboot, als auch eine Linux VM unter Win 8 einzurichten, einfach aus bequemlichkeitsgründen und ich lernen möchte, wie ich beides halbwegs vernünftig einrichten kann.
Wäre auch um weiteren Rat sehr dankbar.
- Ich habe das Verhalten der Bootmanager (Grub 2 bei Linux) nicht ganz verstanden, ob bei der nachträglichen Linux Installation als dualboot der Bootmanager von Windows überschrieben wird, bzw. ersetzt wird.
Das hängt im Wesentlichen vom Betriebsmodus ab. Windows verknüpft UEFI untrennbar mit dem alternativen GPT-Partitionierungsschema. Theoretisch ginge auch jedes der beiden ohne das jeweils andere, aber das macht Windoof nicht mit. Will man also beim UEFI-Boot bleiben, dann müssen die Platten auch per GPT partitioniert sein.
Da gibt es dann eine spezielle Partition, in die jedes Betriebssystem seinen Bootloader reinschmeißen kann. Da die UEFI-Spezifikation unnötig kompliziert ist, müssen sich die Systeme dann zusätzlich auch noch in der UEFI-Firmware (dem Ding, was früher das BIOS war) registrieren. Dann fungiert die Firmware selbst als Bootmanager. Man wählt also beim Booten bereits in der Firmware aus, welches OS gestartet werden soll. Die Firmware startet dann den richtigen Bootloader in der versteckten GPT-Partition auf der Festplatte.
Im BIOS-Modus (auch die meisten UEFI-Systeme können ein CSM laden, um ein klassisches BIOS zu emulieren) muss man dagegen auch das alte MBR-Partitionsschema verwenden. Da gibt es keine Partition mit verschiedenen Bootloadern, sondern es gibt nur einen kleinen Bereich (440 Bytes) am Anfang der Platte, der für Bootloader-Code vorgesehen ist. Das BIOS lädt einfach diesen Bereich und führt den dortigen Code aus. Da es nur also nur einen Bootloader im MBR geben kann, muss man einen Bootmanager verwenden, der selber die Wahl des zu startetenden Betriebssystems erlaubt. Der Bootmanager von Windows kann das zwar theoretisch, ist aber nicht wirklich flexibel genug. Grub bzw. Grub2 sind die bessere Wahl. Also werden die bei der Installation in den MBR geschrieben und der vorher vorhandene Windows-Bootloader überschrieben. Tatsächlich sind die 440 Bytes im MBR zu wenig für einen modernen Bootmanager, also liegt dort nur ein Teil. Der Rest liegt auf einer Linux-Partition und wird von dem Teil im MBR nachgeladen.
Theoretisch gibt es noch eine andere Möglichkeit. Man kann den Windows-Bootloader im MBR liegen lassen und Grub dann in den Bootrecord der Partition (nicht der Platte) installieren. Allerdings macht Grub2 da Zicken, weil dieser Betriebsmodus nicht offiziell unterstützt wird. Daher würde ich, gerade für Anfänger, davon abraten.
- Ich suche generell einen sauberen Bootloader, der mir eine grafische Oberfläche bietet, bei der ich sauber zwischen Linux und Windows auswählen kann (Ich hatte damals ein dualboot mit Linux/ Win 7 ausprobiert und hatte lediglich mit einem textbasierten Bootloader zu kämpfen) und wie ich diesen im Anschluss installieren kann, bzw. ob der Grub 2 dafür schon ausreichend ist.
Ob der Bootloader nun grafisch daher kommt oder nicht, hat mit "sauber" eigentlich recht wenig zu tun. Grub2 startet meines Wissens erst einmal im Textmodus, kann aber auch so konfiguriert (http://wiki.ubuntuusers.de/GRUB_2/Aussehen_-_erweiterte_Konfiguration) werden, dass er den Grafikmodus verwenden.
Wie die UEFI-Firmware aussieht, darauf hat man i.d.R. keinen Einfluss. Das entscheidet der Boardhersteller. Im UEFI-Modus wird der Grub2 normalerweise so konfiguriert, dass man ihn nicht mehr zu Gesicht kriegt und er nur noch das Linux lädt, für das er zuständig ist.
Der UEFI-Modus klingt also vielleicht sauberer und ist es eventuell auch, allerdings ist der BIOS-Modus im Zweifel etwas flexibler und robuster. Spielt bei dir aber keine Rolle, denn wenn du Windows nicht komplett neu installieren willst, musst du eh im UEFI-Modus bleiben. Das Ding verträgt es leider nicht, wenn man einfach so umstellt.
- Ich auch nach Recherche im Ubuntuwiki etc. nicht genau weiß, wie die UEFI Geschichte aussieht, heißt, ob es notwendig ist die Ubuntu DVD vor der Installation auch mit dem UEFI Bootloader zu starten.
Ich habe selbst kein UEFI-System, aber ich bin geneigt, ja zu sagen. Starte die DVD (oder den USB-Stick, wenn du die Installation schneller haben willst) per UEFI.
- Und ob ich letzendlich noch weitere Dinge beachten muss, die ich einstellen sollte, bwsp. das deaktivieren von Fastboot in Win 8 hat mich aufhorchen lassen.
Nein, eigentlich nur Fastboot ausmachen. Das Problem ist halt, dass Win8 bei Fastboot nicht wirklich schneller startet, sondern es schummelt, indem es einen Suspend-To-Disk macht. Da wacht es dann natürlich auch schneller draus auf. Im Grunde hat man nur den Ruhezustand von Win7 in "Herunterfahren" umbenannt. Diese Schummelei kann einem um die Ohren fliegen, wenn zwischenzeitlich ein anderes System auf die Daten der Windows-Partition zugreift, ohne dass das schlafende Windows es mitkriegt.
Die restlichen künstlichen Restriktionen von Windows (Neuinstallation bei Wechsel UEFI/BIOS, UEFI und GPT untrennbar verbunden, etc.) hatte ich bereits erwähnt.
Wäre auch um weiteren Rat sehr dankbar.
Was du halt eventuell noch machen kannst, ist, die VM-Variante zu benutzen, um dir mal unkompliziert ein paar Ubuntu-Derivate anzusehen. Ist Unity die richtige Oberfläche für dich? Oder doch lieber ein klassischer Desktop wie XFCE oder Mate? Oder vielleicht KDE? Bei Linux hat man die Wahl, also warum nicht erstmal ein wenig schaufensterln gehen? Da kannst du erstmal gucken, welcher Desktop dir am meisten zusagt, bevor du mit der Dualboot-Installation anfängst.
Keksinator73
02.01.2014, 17:53
Ja, ich habe momentan eine Ubuntu DVD mit Unity bei mir rumliegen, werde die daher auch verwenden. Werde im Nachhinein jedoch eine andere GUI (KDE oder Cinnamon) installieren, Unity ist durch das fehlende Panel überhaupt nicht mein Ding, auch wenn ich hauptsächlich im Terminal navigiere.
Naja, die Geschichte mit dem Bios spielt für mich schon eine Rolle, ich habe zwar momentan ein Win 8 im Uefi, dieses ist aber weitestgehend frisch, also neu konfiguriert und kann es ohne schmerzen erneut zerschießen, kommt drauf an, ob der dualboot dadurch angenehmer (weniger gefrickel) wird.
Da Uefi mir jedoch bis jetzt mehr ärger bereitet hat, als es für mich nutzen würde (Ich nutze weder eine >2 TB Platte, noch lege ich großartigen Wert auf die 128 Partitionen, sondern eher auf das leicht "schnellere" booten, auf das ich verzichten kann) überlege ich mein System nocheinmal auf bios umzustellen, da:
- wie du schon sagst der Grub 2 im Uefi nicht mehr wirklich ansprechbar ist
und 2.
- ich folgendes herausgefunden habe, dass bei der Systemsicherung unter Windwos die UEFI Partition mit gesichert wird und das Ubuntu u.U. nicht mehr bootet, was für mich überhaupt nicht geht, da ich recht großen Wert auf das Backup lege und ich nur den Windows 8 Virenscanner verwende - daher zerschieße ich im Falle eines Virus etc. lieber mein Windows System und habe ein ordentliches Backup parat.
Hier gefunden, ganz unten: http://wiki.ubuntuusers.de/EFI_Grundlagen
Wie gesagt, sofern es einfacher zu handhaben ist, mache ich nocheinmal ein Windows mit Bios, da weiß ich leider auch nicht recht, auf was ich bei der Einrichtung des dualboot zu achten habe und welche Steine mir Windows wieder in den Weg legt^^
Eigentlich ist da nicht viel zu beachten. Die BIOS-Kompatibilität im Firmware-Setup einschalten, die Platte neu mit MBR partitionieren und dann am besten zuerst Windows, dann Linux installieren. Andersrum geht zwar auch, aber wenn das Windows schon da ist, wird es vom Ubuntu-Setup automatisch in die Grub2-Konfiguration eingetragen.
Bei der Partitionierung am besten System und Daten voneinander trennen. Also für Linux eine Root-, eine Home- und eine Swap-Partition, für Windows dann eine für's System und eine für's Benutzerprofil und die Daten.
Keksinator73
02.01.2014, 18:20
Wie schalte ich die Bios kompatibilität denn ein? Es müsste doch ausreichen das System von der Live DVD ohne den Bootloader zu starten, die Platte zu formatieren und Windows anschließend neu zu installieren, oder?
Desweiteren verstehe ich nicht ganz, weshalb ich das Benutzerprofil ebenfalls partitionieren sollte.
Edit: Was ich mir auch überlegt habe ist eine weitere 500 Gib Platte in mein System zu bauen (aktuell ebenfalls 500 Gib, aber kein Raid Verbund einzurichten, da es unterschiedliche Platten sind), da der Platz im Nachhinein für Windows doch recht knapp werden kann.
Da würde es sich ja theorethisch anbieten auf die 1. Platte das Windows zu setzen und auf die 2. das Ubuntu, nur weiß ich nicht, ob ich dann immernoch die Probleme mit dem Uefi hätte und doch lieber auf Bios umstelle, oder ob sich die Geschichte wieder anders verhält.
Lookbehind
02.01.2014, 19:16
Wie schalte ich die Bios kompatibilität denn ein? Es müsste doch ausreichen das System von der Live DVD ohne den Bootloader zu starten, die Platte zu formatieren und Windows anschließend neu zu installieren, oder?
Nein, reicht nicht, leider. Du musst das schon noch um stellen. Wie genau? Das macht jeder Mainboard-Hersteller wie er es für richtig hält. Schau mal ins Handbuch zu deinem System.
Desweiteren verstehe ich nicht ganz, weshalb ich das Benutzerprofil ebenfalls partitionieren sollte.
Ist nichts was man unbedingt machen MUSS. Geht auch alles auf einer Partition pro Betriebssystem (abgesehen von SWAP). Erfahrungen zeigen aber, dass man sich in Zukunft eine Menge Ärger sparen kann, wenn man persönliche Daten und Betriebssystem voneinander trennt.
Edit: Was ich mir auch überlegt habe ist eine weitere 500 Gib Platte in mein System zu bauen (aktuell ebenfalls 500 Gib, aber kein Raid Verbund einzurichten, da es unterschiedliche Platten sind), da der Platz im Nachhinein für Windows doch recht knapp werden kann.
Da würde es sich ja theorethisch anbieten auf die 1. Platte das Windows zu setzen und auf die 2. das Ubuntu, nur weiß ich nicht, ob ich dann immernoch die Probleme mit dem Uefi hätte und doch lieber auf Bios umstelle, oder ob sich die Geschichte wieder anders verhält.
Mehrere Platten haben keinen Einfluss auf den Boot-Prozess. Naja, jedenfalls nicht in dieser Hinsicht. :gratz
Wie schalte ich die Bios kompatibilität denn ein?
Da gibt's natürlich mal wieder keine einheitliche Vorgehensweise. Das kann jeder Mainboard-Hersteller im Firmware-Setup benennen, wie er lustig ist. Manchmal heißt die Option "CSM" oder "Compatibility Support Module", manchmal "BIOS-Compatibility" und mitunter wird es auch unter "Support for legacy OS / Win7" oder dergleichen geführt. Oft erscheint die Option nur dann, wenn man vorher UEFI Secure Boot abschaltet.
Es müsste doch ausreichen das System von der Live DVD ohne den Bootloader zu starten, die Platte zu formatieren und Windows anschließend neu zu installieren, oder?
Sofern CSM aktiv ist? Ich denke schon. Wie gesagt, selbst habe ich kein UEFI-System.
Desweiteren verstehe ich nicht ganz, weshalb ich das Benutzerprofil ebenfalls partitionieren sollte.
Weil man System und Daten am besten voneinander trennt. Dann kann man z.B. im Ernstfall auch einfach mal die Systempartition platt machen, das OS neu installieren und die Daten auf der anderen Partition einfach so weiternutzen. Ohne erst mühsam alles beiseite kopieren und hinterher wiederherstellen zu müssen.
Edit: Was ich mir auch überlegt habe ist eine weitere 500 Gib Platte in mein System zu bauen (aktuell ebenfalls 500 Gib, aber kein Raid Verbund einzurichten, da es unterschiedliche Platten sind), da der Platz im Nachhinein für Windows doch recht knapp werden kann.
Da würde es sich ja theorethisch anbieten auf die 1. Platte das Windows zu setzen und auf die 2. das Ubuntu, nur weiß ich nicht, ob ich dann immernoch die Probleme mit dem Uefi hätte und doch lieber auf Bios umstelle, oder ob sich die Geschichte wieder anders verhält.
Zwei Platten ist immer eine Idee, es ändert aber nichts an den Problemen, die ich bereits geschildert hatte. Ich würde daher trotzdem CSM-Support aktivieren.
Wenn es keine SSDs werden und du noch ein bisschen Leistung herauskitzeln willst, kannst du die Aufteilung so machen, dass die Swap-Partition für Linux auf der Windows-Platte liegt und die Windows-Auslagerungsdatei auf einer Datenpartition auf der Linux-Platte.
Das hat den Vorteil, dass, wenn z.B. beim Programmstart ausgelagert werden muss, die Köpfe der Platte nicht ständig zwischen Systembereich und Swap-Bereich hin- und herseeken müssen. Statt dessen kann die eine Platte sich voll auf das System konzentieren und die jeweils andere auf evtl. Swap-Operationen.
Ist aber - ausreichenden Hauptspeicher vorausgesetzt - nicht sooo wahnsinnig kritisch. Eher eine kleine Optimierung.
Keksinator73
02.01.2014, 20:57
Danke euch beiden, ich werde das mal so versuchen umzusetzen.
Edit: Die einzige Funktion, die ich nun im Uefi finden konnte ist, dass ich "UEFI boot" deaktivieren kann. Ich hoffe das ist jetzt die Richtige Einstellung^^
Keksinator73
03.01.2014, 22:20
Soo, habe es soweit erfolgreich einrichten können, dualboot mit win 8 und ubuntu im bios.
Ich hatte keine Option für bios Kompatibilität im bios, weshalb ich die Festplatte dank Zusatzprogramm löschen konnte und mit Windows ein neuen MBR erstellen konnte, hat das Heft DVD Programm doch mal Nutzen gehabt.
Was mich etwas verwirrt sind die größen der Systempartitionen in Linux...
zum einen habe ich im windows dateimanager genau 100Gib (102400 MB) für linux freigegeben, im Installationsmanager von linux wurden mir 107,4 Gib als Speicher angezeigt..
Desweiteren hatte ich nach dem Partitionieren von linux krumme speicherbeträge im windows dateimanager angezeigt (ich hatte alles in Mib, dual, bei der linux Installation angegeben)
Auch sind die Linux Partitionen in Windows unbenannt.. (weder Name noch dateisystem werden angezeigt)
Was ich mich auch frage:
Nach der Windows Neuinstallation (bios) wurde meine Systempartition mit 24 GB beanschlagt, während sie im Uefi, soweit ich richtig liege, 15 GB betrug. Kann das sein, wenn ja, warum?
Eine plumpe Frage, aber dennoch für mich interessant: Wie schafft es Windows von einer 5GB DVD 24GB im System zu beanspruchen? Nie verstanden.. wird ein spezielles komprimierungsverfahren verwendet, wird speicher der Partition reserviert? Hexerei?
Ich weiß zwar, dass im linux treiber im Kernel bereitgestellt werden, kann ich im linux jedoch ohne Probleme treiber (chipsatz, Intel APU und grafik, soundkarte) installieren, die unter Windows laufen, oder müssen die für linux angepasst sein, geschweige, muss ich die, die momentan unter linux aktiv sind deinstallieren?
Wenn z. B. die soundkarte (realtek) keinen linux treiber hätte, könnte ich diese dann nicht per gui (wie in Windows) konfigurieren?
Rechtschreibfehler tuen mir leid, ich tippel mit dem Handy und das ist für mich immer noch Fingerakrobatik.. und ich beschwerte mich damals, dass das touchpad bei Netbooks das Letzte sei.. man lernt nie aus...
zum einen habe ich im windows dateimanager genau 100Gib (102400 MB) für linux freigegeben, im Installationsmanager von linux wurden mir 107,4 Gib als Speicher angezeigt..
Ähm... im Windows-Dateimanager? Du meinst den Explorer? Der liefert ungenaue Angaben. Die wahre Größe eines Ordners erfährt man unter Windows nur mittels spezieller Tools (http://www.heise.de/ct/ftp/08/01/180/).
Desweiteren hatte ich nach dem Partitionieren von linux krumme speicherbeträge im windows dateimanager angezeigt (ich hatte alles in Mib, dual, bei der linux Installation angegeben)
Ich verstehe ehrlich gesagt nicht, was du uns mitteilen willst. :dnuhr:
Auch sind die Linux Partitionen in Windows unbenannt..
Natürlich sind sie das. Partitionen haben keinen Namen (zumindest bei MBR nicht). Die Dateisysteme auf diesen Partitionen haben einen Namen. Da Windows die Linux-Dateisysteme aber nicht lesen kann, kann es auch die Namen nicht auslesen.
Ich weiß zwar, dass im linux treiber im Kernel bereitgestellt werden, kann ich im linux jedoch ohne Probleme treiber (chipsatz, Intel APU und grafik, soundkarte) installieren, die unter Windows laufen, oder müssen die für linux angepasst sein, geschweige, muss ich die, die momentan unter linux aktiv sind deinstallieren?
Nein, Windows-Treiber funktionieren unter Linux nicht. Mit wenigen Ausnahmen, die für bestimmte Komponententreiber eine Windows-Schnittstelle vortäuschen, damit man Geräte ohne native Linux-Treiber nutzen kann. NDISwrapper für WLAN-Karten wäre ein Beispiel.
Wenn z. B. die soundkarte (realtek) keinen linux treiber hätte, könnte ich diese dann nicht per gui (wie in Windows) konfigurieren?
Wenn sie keinen Treiber hätte, könnte man gar nichts damit machen. Also sie auch nicht konfigurieren. Egal ob mit oder ohne GUI.
Keksinator73
03.01.2014, 22:59
Tsculdige, ist schon spät, ich meinte die Datenträgerverwaltung unter Windows, wo ich Partitionen anlegen kann bzw. diese mir angezeigt werden.
Mit krummen beträgen meine ich folgendes: In Linux habe ich z. B. eine 1GB Partition (1024MB) angelegt. In der Windows Datenträgerverwaltung, oder wie die sich nennen mag, habe ich nicht 1.00GB als Partition angegeben, sondern eine niedrigere, nachkommastellen Zahl (genauer betrag im Moment unbekannt)
Da weiß ich jetzt auch nicht aus dem Stegreif, wo das herkommt. Denkbar wäre z.B. der Unterschied zwischen Netto und Brutto (die Verwaltungsstrukturen des Dateisystems belegen ja selbst auch einen Teil des Speicherplatzes). Oder der Konflikt zwischen SI-GB (10^3) und "klassischen" GB (2^10), die manchmal als GiB und manchmal als GB bezeichnet werden.
Ich würde mir aber darum keine Gedanken machen. Ich habe gerade nochmal geguckt und in meinem Windows sind auch "krumme" GB-Angaben bei einigen Partitionen, obwohl ich unter Linux gerade Werte eingegeben habe. Aber das macht nichts. Läuft trotzdem.
Wichtig ist eher: Wenn es eine Festplatte ist, die intern mit 4K-Sektoren arbeitet (steht im Zweifelsfall im Datenblatt des Herstellers), dann sollten die Partitionsgrenzen auch an 4K-Sektoren ausgerichtet sein. Sprich, die Sektorgenzen im LBA-Modus müssen durch 8 teilbar sein. Das ist allerdings bei praktisch allen aktuellen Partitionierungswerkzeugen die Voreinstellung.
Keksinator73
05.01.2014, 14:30
Hm, ich habe mich doch entschieden die Partitionsgrößen von Ubuntu zu verändern, komme aber so recht nicht weiter.
Zum einen habe ich mir gparted geladen, ein aushängen des / und des /home verzeichnesses ist nicht möglich und damit keine Verkleinerung, was mich verwirrt.
Desweiteren habe ich noch zwei Partitionen (einmal 4,77 Gb, einmal 3,68GB) die bei gparted als "nicht zugeteilt markiert sind". Diese würde ich Windows gerne wieder zur Verfügung stellen, jedoch kann ich das Laufwerk C: in Windwos in der Datenträgerverwaltung nicht vergrößern, sondern nur verkleinern..
Partitionen, auf denen Dateien geöffnet sind, kannst du nicht einfach so aushängen. Und wenn du angemeldet bist, sind in deinem $HOME eben Dateien geöffnet. Am sinnvollsten ist es IMHO, mit einem Rettungssystem zu partitionieren. Also beispielsweise GParted Live oder Parted Magic.
Was die nicht zugeteilten Bereiche angeht: Poste mal die Partitionstabelle (also die Ausgabe von "fdisk -l /dev/sdX" wobei X durch den passenden Buchstaben zu ersetzen ist).
Lolomoloko
05.01.2014, 14:46
du kannst freien speicher nur dann einer bestehenden partition zuteilen wenn er benachbart ist.
bsp:
|--------A--------|--------B--------|---Free---|
Du kannst partition A nicht erweitern, bei B sollte dies möglich sein.
wenn ich dein problem jetzt richtig verstanden habe.
Partitionen, auf denen Dateien geöffnet sind, kannst du nicht einfach so aushängen. Und wenn du angemeldet bist, sind in deinem $HOME eben Dateien geöffnet. Am sinnvollsten ist es IMHO, mit einem Rettungssystem zu partitionieren. Also beispielsweise GParted Live oder Parted Magic.
/home könnte man aushängen wenn man sich als root anmeldet, bliebe das problem dass man / nicht aushängen kann §ugly
Keksinator73
05.01.2014, 14:47
Hm, in Ordnung, dann werde ich das mal mit der Live DVD von Ubuntu versuchen, ob die Verkleinerung funktioniert.
du kannst freien speicher nur dann einer bestehenden partition zuteilen wenn er benachbart ist.
Und zum selben Segment (primär vs. erweitert) gehört.
,-----+-----+--------------------------,
| A | B | C |
| | | [---|-----D----|---E---] |
`-----+-----+--------------------------´
Wenn A und B primäre Partitionen sind und C die erweiterte mit den logischen Laufwerken D und E, dann ist der freie Speicherplatz vor D zwar benachbart zu B, kann aber nicht direkt der Partition B zugeordnet werden. Statt dessen muss man den Anfang von C verschieben und dann B vergrößern.
Keksinator73
05.01.2014, 17:55
Das ist ja mächtig verwirrend, also A und B sind primär, weshalb ist C dann eine erweiterte Partition und wo liegt der Unterschied zwischen den logischen Partitionen D und E, außer, dass diese untergeordnet von C sind?
Auch wären mit dem Bios doch 4 primäre Partitionen umsetzbar, oder dient das Schaubild generell als Beispiel?
Also:
In den MBR passen nur Einträge für vier Partitionen (auch primäre Partitionen genannt). Für einen fünften Eintrag ist kein Platz mehr im reservierten Bereich. Weil das schon früher ein wenig knapp war, hat man sich eine Erweiterung ausgedacht: Von den vier Einträgen kann einer (und nur einer) als sogenannte erweiterte Partition deklariert sein. Bei diesem zeigt dann der Wert für den Startsektor auf eine sogenannte erweiterte Partitionstabelle. In dieser wiederum ist immer eine einzige Partition (auch "logisches Laufwerk" genannt) beschrieben und dann ein Verweis auf die nächste erweiterte Partitionstabelle. Die wieder ein logisches Laufwerk und einen Verweis auf die nächste Tabelle enthält. Und so weiter. So kann man beliebig viele logische Laufwerke anlegen.
Ich empfehle immer, im Zweifel auf logische Laufwerke zu setzen anstatt auf primäre Partitionen. Dadurch ist man flexibler. Man muss also nicht zwingend die vier primären voll machen.
Einfaches Beispiel: Nehmen wir an, du hast folgende Partitionierung:
[------ A ------|------------ B ------------|------ C ------| ------- D ------]
wobei D eine erweiterte Partition mit irgendwelchen logischen Laufwerken ist. Nun möchtest du eine weitere Partition hinzufügen. Vielleicht weil du zusätzlich auch noch ein FreeBSD installieren willst oder aus welchem Grund auch immer. Die einzige Partition, auf der noch ausreichend Platz frei ist, ist B. Nun kannst du B zwar verkleinern, aber was dann? Du kannst hinter B keine weitere Partition anlegen, weil die vier primären Eintrage bereits besetzt sind. Du kannst auch kein logisches Laufwerk hinter B einrichten, weil alle logischen Laufwerke hintereinander in D stehen müssen. Der einzige Ausweg ist, B zu verkleinern, dann C und D zu verschieben, anschließend D zu vergrößern und schlussendlich in D ein neues logisches Laufwerk anzulegen.
Ziemlich kompliziert, oder? Hättest du aber von Anfang so partitioniert, dass B, C und D logische Laufwerke in einer gemeinsamen erweiterten Partition sind, dann hättest du einfach B verkleinern und dahinter sofort eine neue Partition einfügen können. Ergo: Flexiblerer Ansatz mit weniger Arbeit.
Ich halte es bei mir so, dass ich nur die Partitionen, von denen Betriebssysteme direkt starten primär mache. Also eine /boot für Linux und dann die Windows-Partition. Letzteres ist AFAIK inzwischen auch nicht mehr zwingend nötig, aber früher machte Windows Zicken, wenn es nicht aus einer primären Partition bootete. Aber sicher ist sicher. Alles andere packe ich in logische Laufwerke.
Keksinator73
06.01.2014, 08:08
In Ordnung, das habe ich soweit verstanden, wie kann ich jedoch die primären Windows Partitionen als logische Laufwerke deklarieren? Bei der Windwos Installation bin ich doch im Prinzip "gezwungen" primäre Partitionen für Windows auszuwählen, oder habe ich da was übersehen?
Ferner stellt sich mir die Frage, ob ich die Windows Partitionen nun im Nachhinein als logische Partitionen darstellen kann, wenn ja, wie mache ich das am besten und geht das ohne die bisherigen Partitionen auflösen zu müssen?
Ja, ich stimme mit dir überein, das ist ziemlich kompliziert, im Uefi waren die Partitionen dann doch wesentlich einfacher zu handhaben, da ich mir um die Beschränkung der Partitionen keine Gedanken machen musste, tja, so schnell kann ich das System dann wieder verkonfigurieren.
Also eine Partition nachträglich umändern... ist schwierig. Ich hatte ja bereits die Beschränkungen beschrieben, sofern die alle eingehalten werden, müsste man es durch manuelles Bearbeiten der Partitionstabelle und Anlegen erweiterter Tabellen erledigen können. Halte ich aber für sehr fehleranfällig, würde ich im Zweifel nicht riskieren. Ein Programm, welches diese Arbeit automatisch erledigt, ist mir nicht bekannt. Vielleicht irgendein kommerzieller Partitionierer? Einfacher dürfte es sein, die Partitionen beiseite zu sichern (für Linux reicht 'cp', für Windows bietet sich z.B. 'ntfsclone' an, das ein Image erstellt und nur wirklich belegte Sektoren absichert), dann neu anzulegen und die Inhalte zurück zu kopieren. Bei Windows muss man dann noch gucken, dass die Laufwerksbuchstaben dabei nicht verwürfelt werden.
Ansonsten hat die Kompliziertheit erst einmal nichts mit UEFI vs. BIOS zu tun. Das liegt lediglich am MBR-Partitionierungsschema. Das ist halt alt. Mit dem GPT-Schema hat man dieses Problem so nicht. Nur leider weigert sich Windows beharrlich, von GPT-Partitionen zu booten, wenn nicht auch UEFI benutzt wird. Das ist aber eine künstliche, von Microsoft vorgegebene Beschränkung. Linux selbst hätte kein Problem damit, im BIOS-Modus von einer GPT-Platte zu booten.
Umgekehrt hat man mit anderen Partitionierungsschemata dann zwar vielleicht nicht diese Probleme, dafür aber evtl. andere. Beispielsweise dass man dann wegen Windows auch den UEFI-Modus nutzen muss und ich dessen Bootkonzept ehrlich gesagt für beknackt halte. Das Gras ist ja immer grüner auf der anderen Straßenseite. MBR hat zumindest den Vorteil, dass es aufgrund seines Alters von praktisch alles und jedem unterstützt wird.
Letztlich musst du dich aber deswegen nicht verrückt machen. Wenn die Partitionierung so, wie sie ist, funktioniert, dann ist ja auch alles in Ordnung. Die Beschränkungen sind nur etwas, das man bei Änderungen im Hinterkopf haben sollte, damit man sich nicht wundert, warum bestimmte Sachen nicht gehen.
Bei einer Neuinstallation mache ich es meistens so, dass ich vorab die Partitionierung mit GParted o.ä. von einem Rettungssystem mache und dann alles in die bereits vorkonfigurierten Partitionen installiere (also ohne dass die jeweiligen Installer die Tabellen anfassen). Dann halt die Windows-Startpartition (i.d.R. Laufwerk C) und die /boot primär, alles andere logisch. Wobei ich jetzt wie gesagt nicht weiß, ob man nicht inzwischen auch alles logisch machen könnte. Ist eher eine alte Gewohnheit. Naja, vermutlich geht das Booten aus primären Partitionen einen Mikro-Tick schneller, weil das BIOS sich dann nicht erst an der verketteten Liste der erweiterten Tabellen entlang hangeln muss, um die Partition zu finden.
Keksinator73
06.01.2014, 09:47
Hehe, Microsoft schafft es immer wieder Wege zu finden einem das Leben zu erschweren.
Das gefällt mir garnicht, dass sich dies nicht mehr vernünftig nachträglich ändern lässt. Das heißt im Prinzip, da ich das Windwos nicht umbedingt noch einmal aufspielen möchte, dass ich mir im vorneherein genau überlegen muss, wie viel Sepeicher ich welcher Partition zuweise und schließlich daran mehr oder weniger "gebunden" bin.
Gerade ist es ärgerlich, dass ich für das Windows Backup eine 35 GB Partition erstellt habe, die automatisch als primäre Partition von Windows erkannt wurde, jedoch nur 20 GB benötigt werden, wenn ich etwas Puffer (5GB) berücksichtige, wären damit 10 GB nicht sinnvoll zugeteilt und so etwas ist bei meiner Plattengröße nicht optimal.
Wäre interessant zu wissen, ob, wenn ich das Volume des Backups (und des nun erweiterten Laufwerks Daten, dem ich 5 GB zugeteilt habe) auflöse, dem primären Laufwerk C: wieder die "ursprüngliche" Speichergröße zuordnen könnte, um im Anschluss die Partitionen neu anzulegen.
Bei Linux bleibt mir letzen Endes nichts anderes übrig als mit der momentanen Zuteilung zu "leben", was jetzt nicht umbedingt verkehrt sein muss.
Du kannst dir auch mal LVM angucken. Damit kannst du für Linux verschiedene "physische" Laufwerke (also Partitionen) zusammen fassen zu einem gemeinsamen "virtuellen" Laufwerk. Da kann man dann auch später Speicherplatz hinzufügen oder wieder entfernen.
Bei Windows gibt es sowas auch. Früher waren das die "dynamischen Datenträger", inzwischen soll man die aber nicht mehr verwenden und statt dessen die sogenannten "Storage-Spaces" nutzen. Ich persönlich sehe es allerdings mit einigen Bedenken, dass MS da ständig hin- und herschwenkt. Was, wenn in 5 Jahren die Storage-Spaces auch wieder verworfen werden und ich wieder alles umstellen muss?
In beiden Fällen hat man natürlich das Problem, dass es zusätzliche Komplexität einführt, die immer auch Probleme machen kann. Deshalb ziehe ich lieber klassische MBR-Partitionen vor. Halbwegs vernünftig aufgeteilt machen die null Probleme.
Und gerade bei Linux kann man auch nachträglich immer dadurch vergrößern oder verkleinern, dass man bestimmte Teile des Dateibaums auslagert. Wenn man dann eine neue Platte einbaut, kann man z.B. /usr dorthin schieben, /opt dahin und /var noch wo anders hin. Und umgekehrt lässt sich das auch alles wieder zusammen führen. Da man ein Linux einfach mit 'cp' klonen kann, ist ein Umzug recht problemfrei. Im allerschlimmsten Falle muss man mal Grub neu installieren.
Lookbehind
06.01.2014, 13:04
Auf Linux-Only-Systemen schwöre ich inzwischen tatsächlich auf LVM. Grade in Verbindung mit ext4 als Dateisystem, kann man damit mal eben zur Laufzeit Partitionen vergrößern, verkleinern, erstellen, löschen, verschieben...
Wenn noch n Windows dabei ist, kann einem das aber schnell mal um die Ohren fliegen.
Keksinator73
06.01.2014, 13:24
Die neue Aufteilung der Backup Partition werde ich heute zumindest einmal ausprobieren, sofern dies funktioniert wäre die Partitionierung für mich dann doch schon einmal gegessen.
Die Idee mit den dynamischen Datenträgern wäre zwar denkbar, ich möchte zusätzliche komplexität möglichst vermeiden, da ich mich am Ende in einen Strudel voller Fehler begebe, aus dem ich mich dann doch wieder entschließen muss das System zu zerschießen^^.
Lukasweb
17.05.2014, 13:54
Ich melde mich mal wieder nach langer Zeit wieder. Das ist hoffentlich i.O., denn die Frage passt zum Thema.
Auf unserem Notebook habe ich vor kurzem neben Windows 7 Lubuntu 14.04 installiert, mit einer root, home und swap-Partition. Die Live-CD hatte ich noch, hab aber nicht bedacht, dass es 32 Bit war. Ausserdem gab es nach der Installation Absturzprobleme mit dem Firefox. Deshalb dachte ich mir, statt Zeit mit Problemloesung zu verbrauchen, Linux Mint 64 Bit mit Cinnamon zu installieren. Kann es bei der Neuinstallation zu Problemen mit dem MBR kommen? Ich wuerde jetzt entweder die Partitionen so beibehalten, oder nur root und swap zu nehmen.
Swap hat im Moment 8GB, root 10 GB und home 12, wird evtl. spaeter vergroessert.
Lookbehind
17.05.2014, 14:08
Sollte gehen. Musst halt root überschreiben und das neue System da rein installieren. /home kannst du dann auch wieder als Home einhängen. Gestern is übrigens Mint 17 erschienen ;)
Lukasweb
05.03.2015, 14:37
So, dann befördere ich diesen Thread mal aus der Versenkung, wenn das ok ist. :D
In der Zwischenzeit habe ich mir auch noch Gentoo und Arch angeschaut, im Moment bin ich bei Arch mit LXDE. Doch das Ganze sieht so aus:
http://upload.worldofplayers.de/files10/lxde.jpg
V.a. der Midori lässt optisch sehr zu wünschen übrig. Ist das normal so, oder fehlt da irgendein Theme o.ä.?
Kann man das auch irgendwie so aussehen wie LXDE bei Ubuntu? Oder zumindest etwas schöner, so wie hier:
https://wiki.installgentoo.com/images/1/16/Screenshot_LXDE.png
Der Midori kann ja auch ziemlich schick aussehen, z.B. hier:
http://midori-browser.org/images/screenshots/rdio_uncompressed.png
Midori benutzt das GTK, also brauchst du dazu passende Themes.
Lukasweb
08.03.2015, 19:31
Hab jetzt mal gkt-engines installiert. In LXAppearance kann ich nun auch Themes wie Clearlooks auswählen, die ändern bloß nach dem Anwenden nichts, auch nicht der Vorschau und nach einem Neustart.
Und mal eine Frage grundsätztlich zu Themes: Was macht denn Dekstopumgebungen überhaupt noch aus, wenn man beispielsweise LXDE mit einem Theme wie Gnome aussehen lassen kann? Und welches Standard-Theme verwendet Lubuntu (sieht ja schon deutlich anders aus als das von mir installierte LXDE)?
GTK gibt es in verschiedenen Versionen (1, 2 und 3) und jede hat IIRC ihre eigenen Themes. Das muss zusammen passen.
Was eine Desktop-Umgebung macht, ist nicht klar definiert. Da gibt es keinen offiziellen Standard für. Meist meint man damit eine Sammlung von Werkzeugen, mit denen sich die üblichen Arbeiten erledigen lassen und die gut zusammen arbeiten (einheitliches Aussehen, Bedienkonzept, einfacher Datenaustausch, etc.)
Ein LXDE kann vielleicht aussehen wie Gnome oder KDE, wird aber nicht deren Funktionsumfang erreichen und evtl. andere Bedienkonzepte verfolgen. Auch der Datenaustausch muss nicht immer klappen.
Lukasweb
04.04.2015, 22:22
Hat noch jemand eine Idee, wie ich das Problem mit den Themes beheben kann?
Hab jetzt mal gkt-engines installiert. In LXAppearance kann ich nun auch Themes wie Clearlooks auswählen, die ändern bloß nach dem Anwenden nichts, auch nicht der Vorschau und nach einem Neustart.
Powered by vBulletin® Version 4.2.2 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.