Adaptec RAID Controller Management unter VMware ESXi

VMware ESXi unterstützt eine Reihe von Microsemic Adaptec SAS/RAID Controllern. So verwende ich z.B. in meinen Low-Energy Servern Adaptec ASR 6405E RAID-Controller, mit denen ich auch die folgenden Konfigurationen unter ESXi 6.7 getestet habe.

Installation von Adaptec Treibern in VMware ESXi

Obwohl Adaptec ein weit verbreiteter Hersteller von RAID Controllern ist, wird für einige Modelle, darunter auch den 6405E, ein extra Treiber benötigt. Hierfür verwende ich die offizielle und zertifizierte Version von der Microsemic Webseite. Die Treiber-VIB-Dateien kopiert man entweder per SCP oder über den Datastore Browser des vSphere Clients in ein Verzeichnis auf einem Datastore – im folgenden Beispiel lege ich die benötigten Dateien im Ordner install/adaptec auf dem Datastore SWAPab. Der Treiber wird wie folgt installiert:

esxcli software vib install -v /vmfs/volumes/SWAP/install/adaptec/vmware-esxi-drivers-scsi-aacraid-600.6.2.1.52040.-1.0.6.2494585.x86_64.vib --no-sig-check
reboot
Installation von CIM-Provider und ARCCONF

Der CIM-Provider ist die Schnittstelle zwischen Hardware und VMware ESXi, ARCCONF ist das Command Line Interface für die RAID-Controller Verwaltung. Die aktuellen CIM-Provider und ARCCONF VIB-Dateien befinden sich im Installationspaket von Microsemic’s maxView Storage Manager für ESXi 5.x und 6.x. Auch diese VIB-Dateien kopiere ich vor der Installation in den Ordner auf dem SWAP Datastore und installiere beide analog zum Treiber:

esxcli software vib install -v /vmfs/volumes/SWAP/install/adaptec/vmware-esx-provider-arc-cim-provider.vib --no-sig-check
esxcli software vib install -v /vmfs/volumes/SWAP/install/adaptec/vmware-esx-provider-arcconf.vib --no-sig-check
reboot

Hinweis zum CIM Provider
Bei ESXi-Servern, die nicht in ein vCenter eingebunden sind, werden die Status-Details ausschließlich im installierten (alten) vSphere Client angezeigt. Ab ESXi 6.5 gibt es diesen Client nicht mehr, sondern nur noch den vSphere Web Client. Damit die Status-Details im vSphere Web Client angezeigt werden, benötigt es eine vCenter Integration mit dem entsprechenden Plugin aus der maxView Storage Manager Installation. Und auch hier gibt es die Einschränkung, dass eine Installation des Web Client Plugins ausschließlich auf vCenter Installationen unter Windows verfügbar ist – für die vCenter Server Appliance ist aktuell kein Plugin verfügbar.

ARCCONF: Firmware Update

Nachdem vorher das ARCCONF VIB Paket für VMware installiert wurde, lässt sich die Controller Firmware updaten. Der Befehl für das Update folgt dem Schema:

/opt/pmc/arcconf ROMUPDATE <Controller-Nummer> <Firmware-Datei>.ufi

Die Controller-Nummer ist in der Regel 1 (es sei denn, es sind mehrere Controller verbaut) und die Firmware ist nach dem Schema a<Produkt-Nummer>01.ufi aufgebaut. Wieder am Beispiel meines 6405E Controllers und der Firmware-Datei in meinem vorher verwendeten Verzeichnis erfolgt das Update wie folgt:

/opt/pmc/arcconf ROMUPDATE 1 /vmfs/volumes/SWAP/install/adaptec/a6405E01.ufi
reboot
ARCCONF: RAID Volume erstellen

arcconf bietet mehrere Möglichkeiten per CLI ein logisches RAID Volume zu erstellen. Die Befehlszeile erfolgt dabei nach folgender Syntax:

/opt/pmc/arcconf CREATE <Controller-Nummer> LOGICALDRIVE [Optionen] <Volume-Größe> <RAID-Level> <Channel-Nummer> <Disk-Nummer> [<Channel-Nummer Device-Nummer>] ... [NOPROMPT] [NOLOGS]

Im folgenden Beispiel erstelle ich ein RAID-Volume mit folgenden Eigenschaften:

  • Controller-Nummer: 1
  • Volume Name: SSD-RAID1
  • Build Priorität: Hoch
  • Initialisierungsmethode: Quick (Methoden und Unterschiede siehe hier)
  • Read-Cache: aktiv
  • Write-Cache: aktiv, Write-Back
  • Größe: maximal (kompletter Speicher)
  • RAID-Level: 1
  • Physikalische Disk 1: Channel 0 Device 0
  • Physikalische Disk 2: Channel 0 Device 1
  • Keine Bestätigungsabfrage
/opt/pmc/arcconf CREATE 1 LOGICALDRIVE NAME SSD-RAID1 PRIORITY HIGH METHOD QUICK RCACHE RON WCACHE WB MAX 1 0 0 0 1 NOPROMPT
ARCCONF: Defekte Disk ersetzen und RAID Volume wiederherstellen

Muss eine defekte Disk ausgetauscht und das Array wiederhergestellt werden, gibt es hierzu mehrere Optionen. Wird eine Hot-Spare Disk verwendet, repariert sich das Array mit dieser automatisch. Wird keine Hot-Spare Disk verwendet, beginnt normalerweise der Rebuild ebenfalls automatisch, sobald eine neue Disk angeschlossen ist. Passiert dies nicht, kann die neue Disk als Hot-Spare konfiguriert werden, um den Rebuild Prozess anzustoßen.

/opt/pmc/arcconf SETSTATE <Controller-Nummer> LOGICALDRIVE <Logical-Drive-Nummer> DEVICE <Channel-Nummer Device-Nummer> HSP

Also z.B. wenn bei oben erstelltem Array die 2. Disk ausgefallen und ersetzt werden würde:

/opt/pmc/arcconf SETSTATE 1 LOGICALDRIVE 1 DEVICE 0 1 HSP
ARCCONF: Sonstige nützliche Befehle

Controller rescannen

/opt/pmc/arcconf RESCAN <Controller-Nummer>

Details der angeschlossenen physikalischen Disks anzeigen

/opt/pmc/arcconf GETCONFIG <Controller-Nummer> PD

Details der logischen Volumes / Arrays anzeigen

/opt/pmc/arcconf GETCONFIG <Controller-Nummer> LD

Physikalische Disk initialisieren (Metadaten löschen)

/opt/pmc/arcconf TASK START <Controller-Nummer> DEVICE <Channel-Nummer> <Disk-Nummer> initialize

Alle physikalischen Disks initialisieren (Metadaten löschen)

/opt/pmc/arcconf TASK START <Controller-Nummer> DEVICE ALL

Größe der logischen Disk erhöhen

/opt/pmc/arcconf MODIFY <Controller-Nummer> FROM <Logical-Drive-Nummer> TO <Größe>|MAX

S.M.A.R.T. Status der physikalischen Disks anzeigen

/opt/pmc/arcconf GETSMARTSTATS <Controller-Nummer>

Logfiles exportieren / Support-Bundle erstellen

/opt/pmc/arcconf SAVESUPPORTARCHIVE
maxView Storage Manager

Installation unter Windows

Neben den o.g. Möglichkeiten gibt es die Option, den Adaptec RAID Controller über eine maxView Storage Manager (mSM) Installation in einer VM auf dem ESXi Host zu monitoren und zu konfigurieren. Hierzu installiert man die Software aus dem bereits oben genannten Paket mit den folgenden Einstellungen:

  • maxView Storage Manager GOS
    • ESXi Server
  • maxView Storage Manager ESXi Server Configuration
    • ESXi Host IP Address: <ESXi Host-IP>
    • WebServer Port: 8443
    • Event Listener Port: 49161
    • ESXi Host User Name: root
    • ESXi Host Password: <root-User Passwort>
    • Confirm Password: <root-User Passwort>
  • Direct Attached Storage Setup
    • GUI and Agent
    • CLI Tools

Installation unter Linux

Auch für die Linux Guest-OS Installation installiert man die Software aus dem oben genannten Paket. Hierzu extrahiert man aus der mSM .zip-Datei im Ordner guest_os/linux_x64 die Installationsdatei (am Beispiel mSM 2.05 lautet der Dateiname StorMan-205.GOS86_64.bin) und kopiert diese z.B. per SCP auf die Linux VM. Danach verbindet man sich per SSH zur VM, wechselt in den Ordner, in den man die Datei abgelegt hat und startet die Installation:

./StorMan-2.05.GOS86_64.bin

In der Eingabeaufforderung werden nun analog zur Windows Installation folgende Parameter eingeben:

  • Select the GOS Type. 1.ESXi Server 2.XenServer: 1
  • Hypervisor IP Address
  • Hypervisor username [default: root]: root
  • Hypervisor password:  <root-User Passwort>
  • Event Listener Port [default: 65500]: 65500

Nach Abschluss der Installation wird eine entsprechende Nachricht in der Konsole eingeblendet.

Wird Ubuntu ab Version 14.04 als Linux Guest-OS verwendet, ist zu beachten, dass vor der Installation der root-User aktiviert werden muss, siehe hier.

mSM Web GUI

Nachdem die Installation abgeschlossen ist, kann man sich per Browser mit folgender URL zum mSM verbinden:

https://<VM-IP-Adresse>:8443/maxview/manager/login.xhtml

Da bei der Installation keine Anmeldedaten für mSM angegeben werden müssen (sondern nur Anmeldedaten für den ESXi Host), gibt es öfters Probleme, sich an der Web GUI anzumelden. Abhilfe schafft dieser Artikel von Adaptec.

Quellen:
https://storage.microsemi.com/en-us/support/infocenter/release-2014-1/index.jsp
https://ask.adaptec.com/app/answers/detail/a_id/17082
http://download.adaptec.com/pdfs/user_guides/CLI_v6_10_Users_Guide.pdf
https://ask.adaptec.com/app/answers/detail/a_id/10267

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.