CEPH Promox Installation Konsole: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
| Zeile 17: | Zeile 17: | ||
=== Schritt 2: Initialisieren des Ceph-Clusters === | === Schritt 2: Initialisieren des Ceph-Clusters === | ||
| − | # Erstellen Sie | + | # Erstellen Sie das Ceph-Cluster auf einem der Knoten (z.B. pmx1): |
<code> | <code> | ||
| − | + | pveceph init --cluster-network 10.0.12.0/24 --public-network 10.0.12.0/24 | |
</code> | </code> | ||
| − | # | + | |
| − | + | === Schritt 3: Monitore hinzufügen === | |
| − | + | # Fügen Sie auf jedem Knoten einen Ceph-Monitor hinzu: | |
| − | |||
| − | |||
| − | |||
| − | |||
| − | |||
| − | |||
<code> | <code> | ||
| − | + | pveceph createmon | |
</code> | </code> | ||
| − | === Schritt | + | === Schritt 4: Manager hinzufügen === |
| − | # | + | # Fügen Sie auf jedem Knoten einen Ceph-Manager hinzu: |
<code> | <code> | ||
| − | + | pveceph createmgr | |
| − | |||
| − | |||
</code> | </code> | ||
| − | === Schritt | + | === Schritt 5: OSDs hinzufügen === |
| − | # | + | # Bereiten Sie die Festplatten für die OSDs vor und fügen Sie diese hinzu (auf jedem Knoten): |
<code> | <code> | ||
| − | + | pveceph createosd /dev/vdb | |
</code> | </code> | ||
| − | === Schritt | + | === Schritt 6: Erstellen eines Pools === |
# Erstellen Sie einen Pool: | # Erstellen Sie einen Pool: | ||
<code> | <code> | ||
| Zeile 56: | Zeile 48: | ||
<code> | <code> | ||
ceph osd pool ls | ceph osd pool ls | ||
| + | </code> | ||
| + | |||
| + | === Schritt 7: Überprüfen der Ceph-Konfiguration === | ||
| + | # Überprüfen Sie den Status des Ceph-Clusters: | ||
| + | <code> | ||
| + | ceph -s | ||
</code> | </code> | ||
Version vom 30. Mai 2024, 16:16 Uhr
Installation und Konfiguration von Ceph in Proxmox über die Konsole
Voraussetzungen
- Drei Proxmox-Knoten:
* pmx1 (10.0.12.201) mit /dev/vdb * pmx2 (10.0.12.202) mit /dev/vdb * pmx3 (10.0.12.203) mit /dev/vdb
- Proxmox VE 6.2 oder höher
Schritt 1: Installation von Ceph
- Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
- Installieren Sie Ceph auf allen Knoten:
apt update
apt install ceph ceph-common ceph-mds
Schritt 2: Initialisieren des Ceph-Clusters
- Erstellen Sie das Ceph-Cluster auf einem der Knoten (z.B. pmx1):
pveceph init --cluster-network 10.0.12.0/24 --public-network 10.0.12.0/24
Schritt 3: Monitore hinzufügen
- Fügen Sie auf jedem Knoten einen Ceph-Monitor hinzu:
pveceph createmon
Schritt 4: Manager hinzufügen
- Fügen Sie auf jedem Knoten einen Ceph-Manager hinzu:
pveceph createmgr
Schritt 5: OSDs hinzufügen
- Bereiten Sie die Festplatten für die OSDs vor und fügen Sie diese hinzu (auf jedem Knoten):
pveceph createosd /dev/vdb
Schritt 6: Erstellen eines Pools
- Erstellen Sie einen Pool:
ceph osd pool create mypool 128
- Verifizieren Sie den Pool:
ceph osd pool ls
Schritt 7: Überprüfen der Ceph-Konfiguration
- Überprüfen Sie den Status des Ceph-Clusters:
ceph -s
Troubleshooting
Falls es zu Problemen kommt:
- Überprüfen Sie die Protokolle auf den einzelnen Knoten:
journalctl -u ceph-mon@<hostname>
journalctl -u ceph-mgr@<hostname>
journalctl -u ceph-osd@<osd-id>
- Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
ping 10.0.12.201
ping 10.0.12.202
ping 10.0.12.203
- Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
ceph -s