CEPH Promox Installation Konsole: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
(Die Seite wurde neu angelegt: „=Installation von Ceph auf allen Nodes= Führen Sie auf allen Nodes die folgenden Befehle aus, um Ceph zu installieren: *apt update *apt install ceph ceph-mds…“) |
|||
| (2 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
| Zeile 1: | Zeile 1: | ||
| − | =Installation von Ceph auf | + | == Installation und Konfiguration von Ceph in Proxmox über die Konsole == |
| − | + | ||
| − | + | === Voraussetzungen === | |
| − | + | * Drei Proxmox-Knoten: | |
| + | * pmx1 (10.0.12.201) mit /dev/vdb | ||
| + | * pmx2 (10.0.12.202) mit /dev/vdb | ||
| + | * pmx3 (10.0.12.203) mit /dev/vdb | ||
| + | * Proxmox VE 6.2 oder höher | ||
| + | |||
| + | === Schritt 1: Installation von Ceph === | ||
| + | # Melden Sie sich auf jedem Ihrer Proxmox-Knoten an. | ||
| + | # Installieren Sie Ceph auf allen Knoten: | ||
| + | <code> | ||
| + | apt update | ||
| + | apt install ceph ceph-common ceph-mds | ||
| + | </code> | ||
| + | |||
| + | === Schritt 2: Initialisieren des Ceph-Clusters === | ||
| + | # Initialisieren Sie das Ceph-Cluster auf dem ersten Knoten (z.B. pmx1): | ||
| + | <code> | ||
| + | pveceph init | ||
| + | </code> | ||
| + | |||
| + | === Schritt 3: Monitore hinzufügen === | ||
| + | # Fügen Sie auf jedem Knoten einen Ceph-Monitor hinzu: | ||
| + | <code> | ||
| + | pveceph createmon | ||
| + | </code> | ||
| + | |||
| + | === Schritt 4: Manager hinzufügen === | ||
| + | # Fügen Sie auf jedem Knoten einen Ceph-Manager hinzu: | ||
| + | <code> | ||
| + | pveceph createmgr | ||
| + | </code> | ||
| + | |||
| + | === Schritt 5: OSDs hinzufügen === | ||
| + | # Bereiten Sie die Festplatten für die OSDs vor und fügen Sie diese hinzu (auf jedem Knoten): | ||
| + | <code> | ||
| + | pveceph createosd /dev/vdb | ||
| + | </code> | ||
| + | |||
| + | === Schritt 6: Erstellen eines Pools === | ||
| + | # Erstellen Sie einen Pool: | ||
| + | <code> | ||
| + | ceph osd pool create mypool 128 | ||
| + | </code> | ||
| + | # Verifizieren Sie den Pool: | ||
| + | <code> | ||
| + | ceph osd pool ls | ||
| + | </code> | ||
| + | |||
| + | === Schritt 7: Überprüfen der Ceph-Konfiguration === | ||
| + | # Überprüfen Sie den Status des Ceph-Clusters: | ||
| + | <code> | ||
| + | ceph -s | ||
| + | </code> | ||
| + | |||
| + | === Troubleshooting === | ||
| + | Falls es zu Problemen kommt: | ||
| + | # Überprüfen Sie die Protokolle auf den einzelnen Knoten: | ||
| + | <code> | ||
| + | journalctl -u ceph-mon@<hostname> | ||
| + | journalctl -u ceph-mgr@<hostname> | ||
| + | journalctl -u ceph-osd@<osd-id> | ||
| + | </code> | ||
| + | # Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können: | ||
| + | <code> | ||
| + | ping 10.0.12.201 | ||
| + | ping 10.0.12.202 | ||
| + | ping 10.0.12.203 | ||
| + | </code> | ||
| + | # Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile: | ||
| + | <code> | ||
| + | ceph -s | ||
| + | </code> | ||
Aktuelle Version vom 30. Mai 2024, 16:20 Uhr
Installation und Konfiguration von Ceph in Proxmox über die Konsole
Voraussetzungen
- Drei Proxmox-Knoten:
* pmx1 (10.0.12.201) mit /dev/vdb * pmx2 (10.0.12.202) mit /dev/vdb * pmx3 (10.0.12.203) mit /dev/vdb
- Proxmox VE 6.2 oder höher
Schritt 1: Installation von Ceph
- Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
- Installieren Sie Ceph auf allen Knoten:
apt update
apt install ceph ceph-common ceph-mds
Schritt 2: Initialisieren des Ceph-Clusters
- Initialisieren Sie das Ceph-Cluster auf dem ersten Knoten (z.B. pmx1):
pveceph init
Schritt 3: Monitore hinzufügen
- Fügen Sie auf jedem Knoten einen Ceph-Monitor hinzu:
pveceph createmon
Schritt 4: Manager hinzufügen
- Fügen Sie auf jedem Knoten einen Ceph-Manager hinzu:
pveceph createmgr
Schritt 5: OSDs hinzufügen
- Bereiten Sie die Festplatten für die OSDs vor und fügen Sie diese hinzu (auf jedem Knoten):
pveceph createosd /dev/vdb
Schritt 6: Erstellen eines Pools
- Erstellen Sie einen Pool:
ceph osd pool create mypool 128
- Verifizieren Sie den Pool:
ceph osd pool ls
Schritt 7: Überprüfen der Ceph-Konfiguration
- Überprüfen Sie den Status des Ceph-Clusters:
ceph -s
Troubleshooting
Falls es zu Problemen kommt:
- Überprüfen Sie die Protokolle auf den einzelnen Knoten:
journalctl -u ceph-mon@<hostname>
journalctl -u ceph-mgr@<hostname>
journalctl -u ceph-osd@<osd-id>
- Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
ping 10.0.12.201
ping 10.0.12.202
ping 10.0.12.203
- Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
ceph -s