CEPH Promox Installation Konsole: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
(Die Seite wurde neu angelegt: „=Installation von Ceph auf allen Nodes= Führen Sie auf allen Nodes die folgenden Befehle aus, um Ceph zu installieren: *apt update *apt install ceph ceph-mds…“) |
|||
| Zeile 1: | Zeile 1: | ||
| − | =Installation von Ceph auf | + | == Installation und Konfiguration von Ceph in Proxmox über die Konsole == |
| − | + | ||
| − | + | === Voraussetzungen === | |
| − | + | * Drei Proxmox-Knoten: | |
| + | * pmx1 (10.0.12.201) mit /dev/vdb | ||
| + | * pmx2 (10.0.12.202) mit /dev/vdb | ||
| + | * pmx3 (10.0.12.203) mit /dev/vdb | ||
| + | * Proxmox VE 6.2 oder höher | ||
| + | |||
| + | === Schritt 1: Installation von Ceph === | ||
| + | # Melden Sie sich auf jedem Ihrer Proxmox-Knoten an. | ||
| + | # Installieren Sie Ceph auf allen Knoten: | ||
| + | <code> | ||
| + | apt update | ||
| + | apt install ceph ceph-common ceph-mds | ||
| + | </code> | ||
| + | |||
| + | === Schritt 2: Initialisieren des Ceph-Clusters === | ||
| + | # Erstellen Sie die initiale Ceph-Konfiguration auf einem der Knoten (z.B. pmx1): | ||
| + | <code> | ||
| + | ceph-deploy new pmx1 pmx2 pmx3 | ||
| + | </code> | ||
| + | # Installieren Sie Ceph auf den Knoten: | ||
| + | <code> | ||
| + | ceph-deploy install pmx1 pmx2 pmx3 | ||
| + | </code> | ||
| + | # Initialisieren Sie die Monitore: | ||
| + | <code> | ||
| + | ceph-deploy mon create-initial | ||
| + | </code> | ||
| + | # Initialisieren Sie die Manager: | ||
| + | <code> | ||
| + | ceph-deploy mgr create pmx1 pmx2 pmx3 | ||
| + | </code> | ||
| + | |||
| + | === Schritt 3: Hinzufügen von OSDs === | ||
| + | # Bereiten Sie die Festplatten für die OSDs vor (ersetzen Sie /dev/vdb durch Ihre tatsächlichen Festplatten): | ||
| + | <code> | ||
| + | ceph-deploy osd create --data /dev/vdb pmx1 | ||
| + | ceph-deploy osd create --data /dev/vdb pmx2 | ||
| + | ceph-deploy osd create --data /dev/vdb pmx3 | ||
| + | </code> | ||
| + | |||
| + | === Schritt 4: Überprüfen der Ceph-Konfiguration === | ||
| + | # Überprüfen Sie den Status des Ceph-Clusters: | ||
| + | <code> | ||
| + | ceph -s | ||
| + | </code> | ||
| + | |||
| + | === Schritt 5: Erstellen eines Pools === | ||
| + | # Erstellen Sie einen Pool: | ||
| + | <code> | ||
| + | ceph osd pool create mypool 128 | ||
| + | </code> | ||
| + | # Verifizieren Sie den Pool: | ||
| + | <code> | ||
| + | ceph osd pool ls | ||
| + | </code> | ||
| + | |||
| + | === Troubleshooting === | ||
| + | Falls es zu Problemen kommt: | ||
| + | # Überprüfen Sie die Protokolle auf den einzelnen Knoten: | ||
| + | <code> | ||
| + | journalctl -u ceph-mon@<hostname> | ||
| + | journalctl -u ceph-mgr@<hostname> | ||
| + | journalctl -u ceph-osd@<osd-id> | ||
| + | </code> | ||
| + | # Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können: | ||
| + | <code> | ||
| + | ping 10.0.12.201 | ||
| + | ping 10.0.12.202 | ||
| + | ping 10.0.12.203 | ||
| + | </code> | ||
| + | # Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile: | ||
| + | <code> | ||
| + | ceph -s | ||
| + | </code> | ||
Version vom 30. Mai 2024, 16:14 Uhr
Installation und Konfiguration von Ceph in Proxmox über die Konsole
Voraussetzungen
- Drei Proxmox-Knoten:
* pmx1 (10.0.12.201) mit /dev/vdb * pmx2 (10.0.12.202) mit /dev/vdb * pmx3 (10.0.12.203) mit /dev/vdb
- Proxmox VE 6.2 oder höher
Schritt 1: Installation von Ceph
- Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
- Installieren Sie Ceph auf allen Knoten:
apt update
apt install ceph ceph-common ceph-mds
Schritt 2: Initialisieren des Ceph-Clusters
- Erstellen Sie die initiale Ceph-Konfiguration auf einem der Knoten (z.B. pmx1):
ceph-deploy new pmx1 pmx2 pmx3
- Installieren Sie Ceph auf den Knoten:
ceph-deploy install pmx1 pmx2 pmx3
- Initialisieren Sie die Monitore:
ceph-deploy mon create-initial
- Initialisieren Sie die Manager:
ceph-deploy mgr create pmx1 pmx2 pmx3
Schritt 3: Hinzufügen von OSDs
- Bereiten Sie die Festplatten für die OSDs vor (ersetzen Sie /dev/vdb durch Ihre tatsächlichen Festplatten):
ceph-deploy osd create --data /dev/vdb pmx1
ceph-deploy osd create --data /dev/vdb pmx2
ceph-deploy osd create --data /dev/vdb pmx3
Schritt 4: Überprüfen der Ceph-Konfiguration
- Überprüfen Sie den Status des Ceph-Clusters:
ceph -s
Schritt 5: Erstellen eines Pools
- Erstellen Sie einen Pool:
ceph osd pool create mypool 128
- Verifizieren Sie den Pool:
ceph osd pool ls
Troubleshooting
Falls es zu Problemen kommt:
- Überprüfen Sie die Protokolle auf den einzelnen Knoten:
journalctl -u ceph-mon@<hostname>
journalctl -u ceph-mgr@<hostname>
journalctl -u ceph-osd@<osd-id>
- Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
ping 10.0.12.201
ping 10.0.12.202
ping 10.0.12.203
- Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
ceph -s