CEPH Promox Installation Konsole: Unterschied zwischen den Versionen

Aus Xinux Wiki
Zur Navigation springen Zur Suche springen
(Die Seite wurde neu angelegt: „=Installation von Ceph auf allen Nodes= Führen Sie auf allen Nodes die folgenden Befehle aus, um Ceph zu installieren: *apt update *apt install ceph ceph-mds…“)
 
 
(2 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
=Installation von Ceph auf allen Nodes=
+
== Installation und Konfiguration von Ceph in Proxmox über die Konsole ==
Führen Sie auf allen Nodes die folgenden Befehle aus, um Ceph zu installieren:
+
 
*apt update
+
=== Voraussetzungen ===
*apt install ceph ceph-mds ceph-mgr ceph-mon ceph-osd
+
* Drei Proxmox-Knoten:
 +
  * pmx1 (10.0.12.201) mit /dev/vdb
 +
  * pmx2 (10.0.12.202) mit /dev/vdb
 +
  * pmx3 (10.0.12.203) mit /dev/vdb
 +
* Proxmox VE 6.2 oder höher
 +
 
 +
=== Schritt 1: Installation von Ceph ===
 +
# Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
 +
# Installieren Sie Ceph auf allen Knoten:
 +
  <code>
 +
  apt update
 +
  apt install ceph ceph-common ceph-mds
 +
  </code>
 +
 
 +
=== Schritt 2: Initialisieren des Ceph-Clusters ===
 +
# Initialisieren Sie das Ceph-Cluster auf dem ersten Knoten (z.B. pmx1):
 +
  <code>
 +
  pveceph init
 +
  </code>
 +
 
 +
=== Schritt 3: Monitore hinzufügen ===
 +
# Fügen Sie auf jedem Knoten einen Ceph-Monitor hinzu:
 +
  <code>
 +
  pveceph createmon
 +
  </code>
 +
 
 +
=== Schritt 4: Manager hinzufügen ===
 +
# Fügen Sie auf jedem Knoten einen Ceph-Manager hinzu:
 +
  <code>
 +
  pveceph createmgr
 +
  </code>
 +
 
 +
=== Schritt 5: OSDs hinzufügen ===
 +
# Bereiten Sie die Festplatten für die OSDs vor und fügen Sie diese hinzu (auf jedem Knoten):
 +
  <code>
 +
  pveceph createosd /dev/vdb
 +
  </code>
 +
 
 +
=== Schritt 6: Erstellen eines Pools ===
 +
# Erstellen Sie einen Pool:
 +
  <code>
 +
  ceph osd pool create mypool 128
 +
  </code>
 +
# Verifizieren Sie den Pool:
 +
  <code>
 +
  ceph osd pool ls
 +
  </code>
 +
 
 +
=== Schritt 7: Überprüfen der Ceph-Konfiguration ===
 +
# Überprüfen Sie den Status des Ceph-Clusters:
 +
  <code>
 +
  ceph -s
 +
  </code>
 +
 
 +
=== Troubleshooting ===
 +
Falls es zu Problemen kommt:
 +
# Überprüfen Sie die Protokolle auf den einzelnen Knoten:
 +
  <code>
 +
  journalctl -u ceph-mon@&lt;hostname&gt;
 +
  journalctl -u ceph-mgr@&lt;hostname&gt;
 +
  journalctl -u ceph-osd@&lt;osd-id&gt;
 +
  </code>
 +
# Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
 +
  <code>
 +
  ping 10.0.12.201
 +
  ping 10.0.12.202
 +
  ping 10.0.12.203
 +
  </code>
 +
# Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
 +
  <code>
 +
  ceph -s
 +
  </code>

Aktuelle Version vom 30. Mai 2024, 16:20 Uhr

Installation und Konfiguration von Ceph in Proxmox über die Konsole

Voraussetzungen

  • Drei Proxmox-Knoten:
 * pmx1 (10.0.12.201) mit /dev/vdb
 * pmx2 (10.0.12.202) mit /dev/vdb
 * pmx3 (10.0.12.203) mit /dev/vdb
  • Proxmox VE 6.2 oder höher

Schritt 1: Installation von Ceph

  1. Melden Sie sich auf jedem Ihrer Proxmox-Knoten an.
  2. Installieren Sie Ceph auf allen Knoten:
 
 apt update
 apt install ceph ceph-common ceph-mds
 

Schritt 2: Initialisieren des Ceph-Clusters

  1. Initialisieren Sie das Ceph-Cluster auf dem ersten Knoten (z.B. pmx1):
 
 pveceph init
 

Schritt 3: Monitore hinzufügen

  1. Fügen Sie auf jedem Knoten einen Ceph-Monitor hinzu:
 
 pveceph createmon
 

Schritt 4: Manager hinzufügen

  1. Fügen Sie auf jedem Knoten einen Ceph-Manager hinzu:
 
 pveceph createmgr
 

Schritt 5: OSDs hinzufügen

  1. Bereiten Sie die Festplatten für die OSDs vor und fügen Sie diese hinzu (auf jedem Knoten):
 
 pveceph createosd /dev/vdb
 

Schritt 6: Erstellen eines Pools

  1. Erstellen Sie einen Pool:
 
 ceph osd pool create mypool 128
 
  1. Verifizieren Sie den Pool:
 
 ceph osd pool ls
 

Schritt 7: Überprüfen der Ceph-Konfiguration

  1. Überprüfen Sie den Status des Ceph-Clusters:
 
 ceph -s
 

Troubleshooting

Falls es zu Problemen kommt:

  1. Überprüfen Sie die Protokolle auf den einzelnen Knoten:
 
 journalctl -u ceph-mon@<hostname>
 journalctl -u ceph-mgr@<hostname>
 journalctl -u ceph-osd@<osd-id>
 
  1. Stellen Sie sicher, dass alle Knoten im Cluster miteinander kommunizieren können:
 
 ping 10.0.12.201
 ping 10.0.12.202
 ping 10.0.12.203
 
  1. Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
 
 ceph -s