Ahh, ich krieg hier langsam die Krise
Zitat von
Lookbehind
2. Proxmox benutzt direkt die Logical-Volumes als virtuelle Festplatte für die VM.
Das trifft zu, soweit ich das sehen kann. Die LVMs werden irgendwie ineinander verschachtelt.
Zitat von
Lookbehind
Ein paar generelle Worte noch zu LVM:
Logical-Volume-Management unter Linux kennt 3 ... Klassen? Wie nennt man sowas? ... naja, die folgenden 3 "Dinger":
1. Physical-Volumes (PVs): Wie der Name schon sagt, ist das wirklich physikalischer Speicher, auf welchem letztlich die Daten wirklich landen werden. Das kann eine ganze Fesptlatte sein, eine Partition, Teil eines RAID, ... Hauptsache etwas, was sich wie Block-Level-Speicher verhält und wo das LVM Daten hin schreiben kann. Also Hauptsache es hat noch kein Dateisystem. Die verfügbaren PVs und deren Details lassen sich mit pvs bzw. pvdisplay anzeigen.
2. Volume-Groups (VGs): Eine Volume-Group besteht aus einem oder mehreren dieser PVs und bildet daraus einen Storage-Pool. Volume-Groups lassen sich mit vgs und vgdisplay auflisten bzw Details dazu entnehmen.
3. Logical-Volumes (LVs): Ein Logical-Volume ist eine logische Einheit an Speicher aus eben einer solchen VG, welche sich wie ein einzelner Block-Storage verhält. Ein LV kann dabei durchaus über mehrere PVs erstreckt werden. Welcher Block des LV auf welchem PV zu liegen kommt, macht LVM intern aus. Außerdem kann man von LVs Snapshots erstellen und diese überhaupt recht dynamisch erstellen, löschen, vergrößern, verkleinern, ... . Ein LV-Snapshot entsteht übrigens nach dem COW-System (Copy on Wirte). Aber das führt hier vielleicht zu weit ins Detail. ... Apropos Details, die bekommst du per lvs und/oder lvdisplay (wer hätte das erwartet).
Ich habe inzwischen meinen kompletten Server umgezogen und im Zuge dessen wollte ich Proxmox auch platt machen und nochmal "ordentlich" einrichten - ich kriege es aber nicht gelöscht
- Ich habe Proxmox einfach "drüber" installiert - Proxmox meldet, dass es proxmox gefunden hat und fragt, ob ich die vorherige Installation in proxmox-old umbenennen will oder die Installation abbrechen will. Habe die zweite Möglichkeit gewählt, weil: wollte ja neu installieren "lösche ich dann später". Danach ist die GUI wieder wie neu aber ich weiß nicht, wie ich die vorherige Version...löschen kann? Die vorhandenen Pools sind auch noch irgendwie da und könnte sie hinzufügen, aber die vmdisks dadrin konnte ich nicht mehr an eine VM hängen, ich weiß zumindest nicht, wie?
- Dann habe ich als nächsten Schritt mit gparted live-CD versucht, einfach die kompletten Dateisysteme zu löschen, aber auch das geht nicht und bringt eine Fehlermeldung.
- Dann habe ich die radikale Variante gewählt (vermutete ich) und bin im BIOS des RAID-Controllers hin und habe alle RAIDs gelöscht und alle Disks initialisiert (!), eine HDD mit einer anderen getauscht und neue RAIDs angelegt - neu gebootet, Proxmox installiert (hat diesmal keine Installation gefunden). Beim Booten sehe ich aber, dass er wieder mein RAID10 pool und das Proxmox-Old ... what ever gefunden hat. What the f?
Wie kriege ich denn dieses blöde Proxmox bzw. diese blöden Pools weg? Und wenn ich schon weiterhin Zugriff auf meinen bisherigen RAID10-Pool habe und auch die VMDisks darin sehe, wie kann ich die VM wiederherstellen (war eine VM, die in Benutzung war, aber nicht so "schlimm" wäre, wenn die weg wäre)?
Hier mal ein Auszug von allen relevanten Befehlen..I guess:
Code:
root@pve2:~# pvs
PV VG Fmt Attr PSize PFree
/dev/sda RAID10-pool lvm2 a-- <21.83t 0
/dev/sdb3 pve-OLD-3538AB1A lvm2 a-- <3.64t 16.37g
/dev/sdc3 pve lvm2 a-- 464.48g 360.48g
Code:
root@pve2:~# vgs
VG #PV #LV #SN Attr VSize VFree
RAID10-pool 1 6 0 wz--n- <21.83t 0
pve 1 2 0 wz--n- 464.48g 360.48g
pve-OLD-3538AB1A 1 5 0 wz--n- <3.64t 16.37g
Code:
root@pve2:~# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
RAID10-pool RAID10-pool twi---tz-- <21.83t
vm-100-disk-0 RAID10-pool Vwi---tz-- 64.00g RAID10-pool
vm-100-disk-1 RAID10-pool Vwi---tz-- 8.00g RAID10-pool
vm-100-disk-2 RAID10-pool Vwi---tz-- <9.77t RAID10-pool
vm-100-disk-3 RAID10-pool Vwi---tz-- 500.00g RAID10-pool
vm-100-disk-4 RAID10-pool Vwi---tz-- 4.00m RAID10-pool
root pve -wi-ao---- 96.00g
swap pve -wi-ao---- 8.00g
data pve-OLD-3538AB1A twi-aotz-- <3.49t 1.09 0.31
root pve-OLD-3538AB1A -wi-a----- 96.00g
swap pve-OLD-3538AB1A -wi-a----- 8.00g
vm-100-disk-0 pve-OLD-3538AB1A Vwi-a-tz-- 4.00m data 3.12
vm-100-disk-1 pve-OLD-3538AB1A Vwi-a-tz-- 128.00g data 30.32
Das ist für mich alles böhmisch.
In der Proxmox-Gui sieht das ganze z.B. so aus:
[Bild: pve_1.PNG]
(Die Modelle der Disks sind die Namen der RAIDs)
[Bild: pve_2.PNG]
(Die LVM-pools, die Proxmox gefunden hat?)
[Bild: pve_3.PNG]
(Irgendwelche LVM-Thin pools)
Das "Data" LVM-thin legt Proxmox bei einer normalen Installation automatisch an und war bei meiner Erstinstallation das Verzeichnis mit den ganzen ISOs.
Wenn ich das LVM-thin RAID10 als Storage hinzufügen will, kann ich das auch weiterhin benutzen:
[Bild: pve_4.PNG]
[Bild: pve_5.PNG]
Und wenn ich dann den Storage öffne, sieht das ganze so aus:
[Bild: pve_6.PNG]
Ich wollte eben noch ein Bild machen, wo ich zeige, dass ich die Disk nicht auswählen könnte und habe eine VM erstellt in dem Pool, bekomme aber von Proxmox folgende Fehlermeldung:
Code:
Thin pool RAID10--pool-RAID10--pool-tpool (253:12) transaction_id is 0, while expected 9.
TASK ERROR: unable to create VM 100 - lvcreate 'RAID10-pool/vm-100-disk-5' error: Aborting. Failed to locally activate thin pool RAID10-pool/RAID10-pool.
€dit: Ok, ich habe aufgegeben^^ Habe jetzt mit SystemRescue die Inhalte der RAIDs platt machen können und habe Proxmox neu installiert. Außerdem schaue ich seit knapp 3h diverse Tutorials zu LVM an und verstehe so langsam, wie das alles funktioniert und habe hier ein wirklich gutes gefunden:
https://www.youtube.com/watch?v=N22fweQjyQE
Davor habe ich mir diese Reihe angeschaut, um überhaupt mal die Basics von Dateisystemen usw zu verstehen:
https://www.youtube.com/watch?v=Qrb9...o3-wuS&index=1
Danke Internet!^^
MfG