CEPH Promox Installation Konsole: Unterschied zwischen den Versionen

Aus Xinux Wiki
Zur Navigation springen Zur Suche springen
(Die Seite wurde neu angelegt: „=Installation von Ceph auf allen Nodes= Führen Sie auf allen Nodes die folgenden Befehle aus, um Ceph zu installieren: *apt update *apt install ceph ceph-mds…“)
 
Zeile 1: Zeile 1:
=Installation von Ceph auf allen Nodes=
+
== Installation und Konfiguration von Ceph in Proxmox über die Konsole ==
Führen Sie auf allen Nodes die folgenden Befehle aus, um Ceph zu installieren:
+
 
*apt update
+
=== Voraussetzungen ===
*apt install ceph ceph-mds ceph-mgr ceph-mon ceph-osd
+
* Drei Proxmox-Knoten:
 +
  * pmx1 (10.0.12.201) mit /dev/vdb
 +
  * pmx2 (10.0.12.202) mit /dev/vdb
 +
  * pmx3 (10.0.12.203) mit /dev/vdb
 +
* Proxmox VE 6.2 oder höher
 +
 
 +
=== Schritt 1: Installation von Ceph ===
 +
# Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
 +
# Installieren Sie Ceph auf allen Knoten:
 +
  <code>
 +
  apt update
 +
  apt install ceph ceph-common ceph-mds
 +
  </code>
 +
 
 +
=== Schritt 2: Initialisieren des Ceph-Clusters ===
 +
# Erstellen Sie die initiale Ceph-Konfiguration auf einem der Knoten (z.B. pmx1):
 +
  <code>
 +
  ceph-deploy new pmx1 pmx2 pmx3
 +
  </code>
 +
# Installieren Sie Ceph auf den Knoten:
 +
  <code>
 +
  ceph-deploy install pmx1 pmx2 pmx3
 +
  </code>
 +
# Initialisieren Sie die Monitore:
 +
  <code>
 +
  ceph-deploy mon create-initial
 +
  </code>
 +
# Initialisieren Sie die Manager:
 +
  <code>
 +
  ceph-deploy mgr create pmx1 pmx2 pmx3
 +
  </code>
 +
 
 +
=== Schritt 3: Hinzufügen von OSDs ===
 +
# Bereiten Sie die Festplatten für die OSDs vor (ersetzen Sie /dev/vdb durch Ihre tatsächlichen Festplatten):
 +
  <code>
 +
  ceph-deploy osd create --data /dev/vdb pmx1
 +
  ceph-deploy osd create --data /dev/vdb pmx2
 +
  ceph-deploy osd create --data /dev/vdb pmx3
 +
  </code>
 +
 
 +
=== Schritt 4: Überprüfen der Ceph-Konfiguration ===
 +
# Überprüfen Sie den Status des Ceph-Clusters:
 +
  <code>
 +
  ceph -s
 +
  </code>
 +
 
 +
=== Schritt 5: Erstellen eines Pools ===
 +
# Erstellen Sie einen Pool:
 +
  <code>
 +
  ceph osd pool create mypool 128
 +
  </code>
 +
# Verifizieren Sie den Pool:
 +
  <code>
 +
  ceph osd pool ls
 +
  </code>
 +
 
 +
=== Troubleshooting ===
 +
Falls es zu Problemen kommt:
 +
# Überprüfen Sie die Protokolle auf den einzelnen Knoten:
 +
  <code>
 +
  journalctl -u ceph-mon@&lt;hostname&gt;
 +
  journalctl -u ceph-mgr@&lt;hostname&gt;
 +
  journalctl -u ceph-osd@&lt;osd-id&gt;
 +
  </code>
 +
# Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
 +
  <code>
 +
  ping 10.0.12.201
 +
  ping 10.0.12.202
 +
  ping 10.0.12.203
 +
  </code>
 +
# Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
 +
  <code>
 +
  ceph -s
 +
  </code>

Version vom 30. Mai 2024, 16:14 Uhr

Installation und Konfiguration von Ceph in Proxmox über die Konsole

Voraussetzungen

  • Drei Proxmox-Knoten:
 * pmx1 (10.0.12.201) mit /dev/vdb
 * pmx2 (10.0.12.202) mit /dev/vdb
 * pmx3 (10.0.12.203) mit /dev/vdb
  • Proxmox VE 6.2 oder höher

Schritt 1: Installation von Ceph

  1. Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
  2. Installieren Sie Ceph auf allen Knoten:
 
 apt update
 apt install ceph ceph-common ceph-mds
 

Schritt 2: Initialisieren des Ceph-Clusters

  1. Erstellen Sie die initiale Ceph-Konfiguration auf einem der Knoten (z.B. pmx1):
 
 ceph-deploy new pmx1 pmx2 pmx3
 
  1. Installieren Sie Ceph auf den Knoten:
 
 ceph-deploy install pmx1 pmx2 pmx3
 
  1. Initialisieren Sie die Monitore:
 
 ceph-deploy mon create-initial
 
  1. Initialisieren Sie die Manager:
 
 ceph-deploy mgr create pmx1 pmx2 pmx3
 

Schritt 3: Hinzufügen von OSDs

  1. Bereiten Sie die Festplatten für die OSDs vor (ersetzen Sie /dev/vdb durch Ihre tatsächlichen Festplatten):
 
 ceph-deploy osd create --data /dev/vdb pmx1
 ceph-deploy osd create --data /dev/vdb pmx2
 ceph-deploy osd create --data /dev/vdb pmx3
 

Schritt 4: Überprüfen der Ceph-Konfiguration

  1. Überprüfen Sie den Status des Ceph-Clusters:
 
 ceph -s
 

Schritt 5: Erstellen eines Pools

  1. Erstellen Sie einen Pool:
 
 ceph osd pool create mypool 128
 
  1. Verifizieren Sie den Pool:
 
 ceph osd pool ls
 

Troubleshooting

Falls es zu Problemen kommt:

  1. Überprüfen Sie die Protokolle auf den einzelnen Knoten:
 
 journalctl -u ceph-mon@<hostname>
 journalctl -u ceph-mgr@<hostname>
 journalctl -u ceph-osd@<osd-id>
 
  1. Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
 
 ping 10.0.12.201
 ping 10.0.12.202
 ping 10.0.12.203
 
  1. Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
 
 ceph -s