CEPH Promox Installation Webinterface: Unterschied zwischen den Versionen

Aus Xinux Wiki
Zur Navigation springen Zur Suche springen
 
(20 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 1: Zeile 1:
 
=Installation von Ceph auf allen Nodes=
 
=Installation von Ceph auf allen Nodes=
Führen Sie auf allen Nodes die folgendesaus, um Ceph zu installieren:
+
== Grafische Installation und Konfiguration von Ceph in Proxmox ==
  
[[Datei:Pmx-ceph1.png|600px]]
+
=== Voraussetzungen ===
 +
===Auf allen Proxmoxen===
 +
*rm /etc/apt/sources.list.d/pve-enterprise.list
 +
*apt update
 +
 
 +
* Drei Proxmox-Knoten:
 +
  * pmx1 (10.0.12.201) mit /dev/vdb
 +
  * pmx2 (10.0.12.202) mit /dev/vdb
 +
  * pmx3 (10.0.12.203) mit /dev/vdb
 +
* Proxmox VE 6.2 oder höher
 +
 
 +
=== Schritt 1: Ceph-Installation ===
 +
# Melden Sie sich an der Proxmox Web-GUI an.
 +
# Navigieren Sie zu '''Datacenter'''.
 +
# Klicken Sie auf '''Ceph'''.
 +
# Klicken Sie auf '''Install Ceph'''.
 +
 
 +
[[Datei:Pmx-ceph1.png]]
 +
 
 +
[[Datei:Pmx-ceph2.png]]
 +
 
 +
[[Datei:Pmx-ceph1-1.png]]
 +
 
 +
[[Datei:Pmx-ceph4.png]]
 +
 
 +
[[Datei:Pmx-ceph3.png]]
 +
 
 +
=Installation auf den beiden anderen Nodes auch durchführen=
 +
*pmx2 und pmx3
 +
=== Schritt 2: Monitore hinzufügen ===
 +
# Navigieren Sie zu '''Datacenter''' > '''Node''> '''Ceph''' > '''Monitors'''.
 +
# Klicken Sie auf '''Create'''. Es öffnet sich ein Dialogfenster.
 +
# Wählen Sie den Knoten '''pmx2''' und bestätigen Sie die IP-Adresse (10.0.12.202).
 +
# Wiederholen Sie diesen Schritt für den Knoten '''pmx3''' (10.0.12.203).
 +
[[Datei:Pmx-ceph5.png]]
 +
=== Schritt 3: Manager hinzufügen ===
 +
# Navigieren Sie zu '''Datacenter''' > '''Ceph''' > '''Managers'''.
 +
# Klicken Sie auf '''Create'''. Es öffnet sich ein Dialogfenster.
 +
# Wählen Sie den Knoten '''pmx2''' und bestätigen Sie die IP-Adresse (10.0.12.202).
 +
# Wiederholen Sie diesen Schritt für den Knoten '''pmx3''' (10.0.12.203).
 +
[[Datei:Pmx-ceph6.png]]
 +
 
 +
=== Schritt 4: OSDs hinzufügen ===
 +
# Navigieren Sie zu '''Datacenter''' > '''Ceph''' > '''node''' > '''OSDs'''.
 +
# Klicken Sie auf '''Create: OSD'''. Es öffnet sich ein Dialogfenster.
 +
# Wählen Sie den Knoten '''pmx1''', wählen Sie das Laufwerk '''/dev/vdb''' und klicken Sie auf '''Create'''.
 +
# Wiederholen Sie diesen Schritt für die Knoten '''pmx2''' und '''pmx3''', jeweils mit dem Laufwerk '''/dev/vdb'''.
 +
[[Datei:Pmx-ceph7.png]]
 +
 
 +
[[Datei:Pmx-ceph8.png]]
 +
 
 +
=== Schritt 5: Pool erstellen ===
 +
# Navigieren Sie zu '''Datacenter''' > '''Node'''>'''Ceph''' > '''Pools'''.
 +
# Klicken Sie auf '''Create Pool'''. Es öffnet sich ein Dialogfenster.
 +
# Geben Sie einen Namen für den Pool ein (z.B. '''kit-pool''').
 +
# Wählen Sie die Anzahl der '''Placement Groups (PGs)''' aus. Für Testzwecke können 128 PGs ausreichend sein.
 +
# Klicken Sie auf '''Create''', um den Pool zu erstellen.
 +
[[Datei:Pmx-ceph9.png]]
 +
 
 +
[[Datei:Pmx-ceph10.png]]
 +
 
 +
=== Schritt 6: Überprüfen der Konfiguration ===
 +
# Navigieren Sie zu '''Datacenter''' > '''Ceph''' > '''Status'''.
 +
# Überprüfen Sie, ob alle Komponenten (Monitore, Manager und OSDs) grün und aktiv sind.
 +
# Stellen Sie sicher, dass der Cluster-Status '''HEALTH_OK''' anzeigt.
 +
[[Datei:Pmx-ceph11.png]]
 +
 
 +
=== Storage ===
 +
Der Storage sollte schon automatisch als RBD Device erscheinen.
 +
 
 +
[[Datei:Pmx-ceph-12.png]]
 +
 
 +
 
 +
=== Troubleshooting ===
 +
Falls es zu Problemen kommt:
 +
# Überprüfen Sie die Protokolle auf den einzelnen Knoten:
 +
  <code>journalctl -u ceph-mon@&lt;hostname&gt;</code>
 +
  <code>journalctl -u ceph-mgr@&lt;hostname&gt;</code>
 +
  <code>journalctl -u ceph-osd@&lt;osd-id&gt;</code>
 +
# Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
 +
  <code>ceph -s</code>
 +
===Benmarks===

Aktuelle Version vom 12. September 2024, 11:11 Uhr

Installation von Ceph auf allen Nodes

Grafische Installation und Konfiguration von Ceph in Proxmox

Voraussetzungen

Auf allen Proxmoxen

  • rm /etc/apt/sources.list.d/pve-enterprise.list
  • apt update
  • Drei Proxmox-Knoten:
 * pmx1 (10.0.12.201) mit /dev/vdb
 * pmx2 (10.0.12.202) mit /dev/vdb
 * pmx3 (10.0.12.203) mit /dev/vdb
  • Proxmox VE 6.2 oder höher

Schritt 1: Ceph-Installation

  1. Melden Sie sich an der Proxmox Web-GUI an.
  2. Navigieren Sie zu Datacenter.
  3. Klicken Sie auf Ceph.
  4. Klicken Sie auf Install Ceph.

Pmx-ceph1.png

Pmx-ceph2.png

Pmx-ceph1-1.png

Pmx-ceph4.png

Pmx-ceph3.png

Installation auf den beiden anderen Nodes auch durchführen

  • pmx2 und pmx3

Schritt 2: Monitore hinzufügen

  1. Navigieren Sie zu Datacenter' > Node> Ceph > Monitors.
  2. Klicken Sie auf Create. Es öffnet sich ein Dialogfenster.
  3. Wählen Sie den Knoten pmx2 und bestätigen Sie die IP-Adresse (10.0.12.202).
  4. Wiederholen Sie diesen Schritt für den Knoten pmx3 (10.0.12.203).

Pmx-ceph5.png

Schritt 3: Manager hinzufügen

  1. Navigieren Sie zu Datacenter > Ceph > Managers.
  2. Klicken Sie auf Create. Es öffnet sich ein Dialogfenster.
  3. Wählen Sie den Knoten pmx2 und bestätigen Sie die IP-Adresse (10.0.12.202).
  4. Wiederholen Sie diesen Schritt für den Knoten pmx3 (10.0.12.203).

Pmx-ceph6.png

Schritt 4: OSDs hinzufügen

  1. Navigieren Sie zu Datacenter > Ceph > node > OSDs.
  2. Klicken Sie auf Create: OSD. Es öffnet sich ein Dialogfenster.
  3. Wählen Sie den Knoten pmx1, wählen Sie das Laufwerk /dev/vdb und klicken Sie auf Create.
  4. Wiederholen Sie diesen Schritt für die Knoten pmx2 und pmx3, jeweils mit dem Laufwerk /dev/vdb.

Pmx-ceph7.png

Pmx-ceph8.png

Schritt 5: Pool erstellen

  1. Navigieren Sie zu Datacenter > Node>Ceph > Pools.
  2. Klicken Sie auf Create Pool. Es öffnet sich ein Dialogfenster.
  3. Geben Sie einen Namen für den Pool ein (z.B. kit-pool).
  4. Wählen Sie die Anzahl der Placement Groups (PGs) aus. Für Testzwecke können 128 PGs ausreichend sein.
  5. Klicken Sie auf Create, um den Pool zu erstellen.

Pmx-ceph9.png

Pmx-ceph10.png

Schritt 6: Überprüfen der Konfiguration

  1. Navigieren Sie zu Datacenter > Ceph > Status.
  2. Überprüfen Sie, ob alle Komponenten (Monitore, Manager und OSDs) grün und aktiv sind.
  3. Stellen Sie sicher, dass der Cluster-Status HEALTH_OK anzeigt.

Pmx-ceph11.png

Storage

Der Storage sollte schon automatisch als RBD Device erscheinen.

Pmx-ceph-12.png


Troubleshooting

Falls es zu Problemen kommt:

  1. Überprüfen Sie die Protokolle auf den einzelnen Knoten:
 journalctl -u ceph-mon@<hostname>
 journalctl -u ceph-mgr@<hostname>
 journalctl -u ceph-osd@<osd-id>
  1. Überprüfen Sie den Ceph-Cluster-Status über die Kommandozeile:
 ceph -s

Benmarks