CEPH Promox Installation Konsole: Unterschied zwischen den Versionen

Aus Xinux Wiki
Zur Navigation springen Zur Suche springen
Zeile 17: Zeile 17:
  
 
=== Schritt 2: Initialisieren des Ceph-Clusters ===
 
=== Schritt 2: Initialisieren des Ceph-Clusters ===
# Erstellen Sie die initiale Ceph-Konfiguration auf einem der Knoten (z.B. pmx1):
+
# Erstellen Sie das Ceph-Cluster auf einem der Knoten (z.B. pmx1):
 
   <code>
 
   <code>
   ceph-deploy new pmx1 pmx2 pmx3
+
   pveceph init --cluster-network 10.0.12.0/24 --public-network 10.0.12.0/24
 
   </code>
 
   </code>
# Installieren Sie Ceph auf den Knoten:
+
 
  <code>
+
=== Schritt 3: Monitore hinzufügen ===
  ceph-deploy install pmx1 pmx2 pmx3
+
# Fügen Sie auf jedem Knoten einen Ceph-Monitor hinzu:
  </code>
 
# Initialisieren Sie die Monitore:
 
  <code>
 
  ceph-deploy mon create-initial
 
  </code>
 
# Initialisieren Sie die Manager:
 
 
   <code>
 
   <code>
   ceph-deploy mgr create pmx1 pmx2 pmx3
+
   pveceph createmon
 
   </code>
 
   </code>
  
=== Schritt 3: Hinzufügen von OSDs ===
+
=== Schritt 4: Manager hinzufügen ===
# Bereiten Sie die Festplatten für die OSDs vor (ersetzen Sie /dev/vdb durch Ihre tatsächlichen Festplatten):
+
# Fügen Sie auf jedem Knoten einen Ceph-Manager hinzu:
 
   <code>
 
   <code>
   ceph-deploy osd create --data /dev/vdb pmx1
+
   pveceph createmgr
  ceph-deploy osd create --data /dev/vdb pmx2
 
  ceph-deploy osd create --data /dev/vdb pmx3
 
 
   </code>
 
   </code>
  
=== Schritt 4: Überprüfen der Ceph-Konfiguration ===
+
=== Schritt 5: OSDs hinzufügen ===
# Überprüfen Sie den Status des Ceph-Clusters:
+
# Bereiten Sie die Festplatten für die OSDs vor und fügen Sie diese hinzu (auf jedem Knoten):
 
   <code>
 
   <code>
   ceph -s
+
   pveceph createosd /dev/vdb
 
   </code>
 
   </code>
  
=== Schritt 5: Erstellen eines Pools ===
+
=== Schritt 6: Erstellen eines Pools ===
 
# Erstellen Sie einen Pool:
 
# Erstellen Sie einen Pool:
 
   <code>
 
   <code>
Zeile 56: Zeile 48:
 
   <code>
 
   <code>
 
   ceph osd pool ls
 
   ceph osd pool ls
 +
  </code>
 +
 +
=== Schritt 7: Überprüfen der Ceph-Konfiguration ===
 +
# Überprüfen Sie den Status des Ceph-Clusters:
 +
  <code>
 +
  ceph -s
 
   </code>
 
   </code>
  

Version vom 30. Mai 2024, 16:16 Uhr

Installation und Konfiguration von Ceph in Proxmox über die Konsole

Voraussetzungen

  • Drei Proxmox-Knoten:
 * pmx1 (10.0.12.201) mit /dev/vdb
 * pmx2 (10.0.12.202) mit /dev/vdb
 * pmx3 (10.0.12.203) mit /dev/vdb
  • Proxmox VE 6.2 oder höher

Schritt 1: Installation von Ceph

  1. Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
  2. Installieren Sie Ceph auf allen Knoten:
 
 apt update
 apt install ceph ceph-common ceph-mds
 

Schritt 2: Initialisieren des Ceph-Clusters

  1. Erstellen Sie das Ceph-Cluster auf einem der Knoten (z.B. pmx1):
 
 pveceph init --cluster-network 10.0.12.0/24 --public-network 10.0.12.0/24
 

Schritt 3: Monitore hinzufügen

  1. Fügen Sie auf jedem Knoten einen Ceph-Monitor hinzu:
 
 pveceph createmon
 

Schritt 4: Manager hinzufügen

  1. Fügen Sie auf jedem Knoten einen Ceph-Manager hinzu:
 
 pveceph createmgr
 

Schritt 5: OSDs hinzufügen

  1. Bereiten Sie die Festplatten für die OSDs vor und fügen Sie diese hinzu (auf jedem Knoten):
 
 pveceph createosd /dev/vdb
 

Schritt 6: Erstellen eines Pools

  1. Erstellen Sie einen Pool:
 
 ceph osd pool create mypool 128
 
  1. Verifizieren Sie den Pool:
 
 ceph osd pool ls
 

Schritt 7: Überprüfen der Ceph-Konfiguration

  1. Überprüfen Sie den Status des Ceph-Clusters:
 
 ceph -s
 

Troubleshooting

Falls es zu Problemen kommt:

  1. Überprüfen Sie die Protokolle auf den einzelnen Knoten:
 
 journalctl -u ceph-mon@<hostname>
 journalctl -u ceph-mgr@<hostname>
 journalctl -u ceph-osd@<osd-id>
 
  1. Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
 
 ping 10.0.12.201
 ping 10.0.12.202
 ping 10.0.12.203
 
  1. Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
 
 ceph -s