CEPH Promox Installation Konsole

Aus Xinux Wiki
Zur Navigation springen Zur Suche springen

Installation und Konfiguration von Ceph in Proxmox über die Konsole

Voraussetzungen

  • Drei Proxmox-Knoten:
 * pmx1 (10.0.12.201) mit /dev/vdb
 * pmx2 (10.0.12.202) mit /dev/vdb
 * pmx3 (10.0.12.203) mit /dev/vdb
  • Proxmox VE 6.2 oder höher

Schritt 1: Installation von Ceph

  1. Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
  2. Installieren Sie Ceph auf allen Knoten:
 
 apt update
 apt install ceph ceph-common ceph-mds
 

Schritt 2: Initialisieren des Ceph-Clusters

  1. Erstellen Sie die initiale Ceph-Konfiguration auf einem der Knoten (z.B. pmx1):
 
 ceph-deploy new pmx1 pmx2 pmx3
 
  1. Installieren Sie Ceph auf den Knoten:
 
 ceph-deploy install pmx1 pmx2 pmx3
 
  1. Initialisieren Sie die Monitore:
 
 ceph-deploy mon create-initial
 
  1. Initialisieren Sie die Manager:
 
 ceph-deploy mgr create pmx1 pmx2 pmx3
 

Schritt 3: Hinzufügen von OSDs

  1. Bereiten Sie die Festplatten für die OSDs vor (ersetzen Sie /dev/vdb durch Ihre tatsächlichen Festplatten):
 
 ceph-deploy osd create --data /dev/vdb pmx1
 ceph-deploy osd create --data /dev/vdb pmx2
 ceph-deploy osd create --data /dev/vdb pmx3
 

Schritt 4: Überprüfen der Ceph-Konfiguration

  1. Überprüfen Sie den Status des Ceph-Clusters:
 
 ceph -s
 

Schritt 5: Erstellen eines Pools

  1. Erstellen Sie einen Pool:
 
 ceph osd pool create mypool 128
 
  1. Verifizieren Sie den Pool:
 
 ceph osd pool ls
 

Troubleshooting

Falls es zu Problemen kommt:

  1. Überprüfen Sie die Protokolle auf den einzelnen Knoten:
 
 journalctl -u ceph-mon@<hostname>
 journalctl -u ceph-mgr@<hostname>
 journalctl -u ceph-osd@<osd-id>
 
  1. Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
 
 ping 10.0.12.201
 ping 10.0.12.202
 ping 10.0.12.203
 
  1. Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
 
 ceph -s