- Computers & electronics
- Computer components
- System components
- Networking cards
- Dell
- QL41164HMRJ-DE
- Benutzerhandbuch
advertisement
AH0054602-01 F
Benutzerhandbuch
Konvergente Netzwerkadapter
41
xxx
-Serie
Informationen Dritter, die mit freundlicher
Genehmigung von Dell EMC bereitgestellt wurden.
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
Dokumenten-Überarbeitungsverlauf
Überarbeitung A, 28. April 2017
Überarbeitung B, 24. August 2017
Überarbeitung C, 1. Oktober 2017
Überarbeitung D, 24. Januar 2018
Überarbeitung E, 15. März 2018
Überarbeitung F, 19. April 2018
Änderungen Betroffener Abschnitt
Beispiele für Dokumentationskonventionen aktualisiert.
Überholte Abschnitte zu QLogic
Lizenzvereinbarungen
und
Garantie
entfernt.
„Konventionen im Dokument“ auf Seite xx
In
Tabelle 3-5 Fußnote hinzugefügt: „Weitere
ESXi-Treiber werden möglicherweise nach der
Veröffentlichung des Benutzerhandbuchs verfügbar. Weitere Informationen finden Sie in den Versionshinweisen.”
In
OED-Werte für Windows Server und VMware
ESXi aktualisiert.
Zeile für VMware ESXi 6.7 hinzugefügt.
Fußnote gelöscht: „Der zertifizierte RoCE-Treiber ist in dieser Version nicht enthalten. Der zertifizierte Treiber ist in einer frühen Vorschau enthalten.“
„VMware-Treiber und Treiberpakete“ auf Seite 28
„Unterstützte Betriebssysteme und OFED“ auf
Neues Verfahren für die Anzeige von Cavium
RDMA-Zählern für RoCE und iWARP unter
Windows hinzugefügt.
Nach Abbildung 7-4 Hinweis mit einem Querver-
weis zum Verfahren
„Anzeigen von RDMA-Zählern“ auf Seite 77
hinzugefügt.
Informationen für die Konfiguration von iSER für
VMware ESXi 6.7 hinzugefügt.
„Anzeigen von RDMA-Zählern“ auf Seite 77
„Konfigurieren von iWARP unter Windows“ auf
„Konfigurieren von iSER auf SLES 6.7“ auf
ii AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
Folgende wichtige Abschnitte in Unterabschnitte
unter iSCSI-Offload in Linux-Umgebungen unter-
teilt:
„Unterschiede zu bnx2i“ auf Seite 160
„Konfigurieren von qedi.ko“ auf Seite 160
„Überprüfen von iSCSI-Schnittstellen in Linux“ auf Seite 161
„Open-iSCSI und Starten über SAN – Überlegungen“ auf Seite 163
Im Verfahren
So migrieren Sie von einer
Non-Offload-Schnittstelle auf eine Offload-Schnittstelle
:
in folgende Formulierung aktualisiert:
„open-iscsi-Werkzeuge und iscsiuio
auf die aktuellsten verfügbaren Versionen
durch
….aktualisieren”
bearbeitet, um „(falls vorhanden)“ zum ersten Aufzählungspunkt hinzuzufügen, und letzten Aufzählungspunkt gelöscht
( rd.driver.pre=qed rd.driver.pre=qedi
anfügen)
„Und später“ zum Abschnittstitel hinzugefügt und
aktualisiert.
„iSCSI-Offload in Linux-Umgebungen“ auf
„SLES 11 SP4 iSCSI L4 – Migration für „Booten
„Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4“ auf Seite 176
„Konfigurieren von Linux FCoE-Offload“ auf
Folgenden Hinweis hinzugefügt: „Wenn die Installation mit SLES 11 oder SLES 12 erfolgt, wird der
Parameter withfcoe=1
nicht benötigt, da der
41000 Series-Adapter den Software-FCoE-Daemon nicht mehr benötigt.“
Hinweis mit einer Beschreibung der aktuellen
Funktionalität der FCoE-Schnittstellen hinzugefügt.
„Unterschiede zwischen qedf und bnx2fc“ auf
Neuen Abschnitt für „FCoE – Booten über SAN“ hinzugefügt.
Veralteten Abschnitt „Überlegungen zum Starten
über SAN“ gelöscht.
„Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4“ auf Seite 192
iii AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
Im Verfahren
So konfigurieren Sie SR-IOV unter
Linux
:
In
Befehl von ip link show/ifconfig -a
in ip link show | grep -i vf -b2
geändert.
durch neuen Screenshot ersetzt.
In
Befehl von check lspci
-vv|grep -I ether
in lspci -vv|grep
-i ether
geändert.
Im Verfahren
Konfigurieren von SR-IOV unter
VMware
einige Schritte neu angeordnet:
Schritt „Zum Validieren der VFs pro Port den
Befehl
esxcli ausführen...“ befindet sich jetzt nach dem Schritt „Füllen Sie das Dialogfeld „Edit Settings“ (Einstellungen bearbeiten) aus ...“.
Schritt „VM hochfahren...“ befindet sich jetzt nach dem Schritt „QLogic-Treiber für die erkannten Adapter installieren...“.
Aufzählungspunkte in der Kapiteleinführung aktualisiert:
Dritter Aufzählungspunkt: „Jeder Port kann unabhängig zur Verwendung von RoCE,
RoCEv2 oder iWARP als RDMA-Protokoll, über das NVMe-oF ausgeführt wird, konfiguriert werden.“
Vierter Aufzählungspunkt: Formulierung wie folgt geändert: „Bei RoCE und RoCEv2 wurde ein optionaler Switch für Data Center Bridging
(DCB), die entsprechende Richtlinie für die Servicequalität (QoS) und vLANs konfiguriert, um die Priorität der RoCE/RoCEv2 DCB-P-Daten-
übertragungsklasse für NVMe-oF zu tragen.
Der Switch wird nicht benötigt, wenn NVMe-oF iWARP verwendet.“
„Konfigurieren von SR-IOV unter Linux“ auf
„Konfigurieren von SR-IOV unter VMware“ auf
Kapitel 12 NVMe-oF-Konfiguration mit RDMA
iv AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
Abschnitt wie folgt aktualisiert:
In der Einleitung folgenden Satz hinzugefügt:
„Gehen Sie zum Aufrüsten des Kernels auf den aktuellen Linux-Upstream-Kernel zu <URL>.“
für die Neuinstallation und das
Laden des neuesten Treibers nach der BS-Kernel-Aufrüstung hinzugefügt.
In
systemctl enable rdma
in systemctl enable rdma.service
geändert.
„Installieren von Gerätetreibern auf beiden Servern“ auf Seite 217
Aktualisierung von
„Konfigurieren des Zielservers“ auf Seite 218
„Konfigurieren des Initiatorservers“ auf Seite 220
„Testen der NVMe-oF-Geräte“ auf Seite 222
In
Schritt 1 den folgenden Befehl hinzugefügt:
#
yum install epel-release
Im Verfahren
So testen Sie den iWARP-Datenverkehr
nach Schritt
Script qedr_affin.sh
hinzugefügt.
In
Tabelle B-1 weitere getestete Kabel und opti-
sche Lösungen hinzugefügt.
Weitere getestete Switches zu
gefügt.
„Optimieren der Leistung“ auf Seite 224
„Getestete Kabel und optische Module“ auf
„Getestete Switches“ auf Seite 283
Folgende nicht mehr benötigte Abschnitt entfernt:
NPAR-Konfiguration wird nicht unterstützt, wenn SR-IOV bereits konfiguriert wurde
RoCE- und iWARP-Konfiguration wird nicht unterstützt, wenn NPAR bereits konfiguriert ist
Anhang D Einschränkungen bei Merkmalen und
v AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie vi AH0054602-01 F
1
2
3
Inhalt
Vorwort
Konventionen im Dokument . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
xxii
Laser-Sicherheit – FDA-Hinweis . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
xxii
Behördenzertifikat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Störstrahlungs- und EMV-Anforderungen. . . . . . . . . . . . . . . . . .
KCC: Klasse A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VCCI: Klasse A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konformität mit der Produktsicherheit . . . . . . . . . . . . . . . . . . . . . . . . .
Produktübersicht
Merkmale und Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Technische Daten des Adapters. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Physische Kenndaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Standardspezifikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installation der Hardware
Checkliste für die Installationsvorbereitung . . . . . . . . . . . . . . . . . . . . . . . . .
Treiberinstallation
Installieren der Linux-Treibersoftware . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installieren der Linux-Treiber ohne RDMA . . . . . . . . . . . . . . . . . . . . .
Entfernen der Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installieren der Linux-Treiber unter Verwendung der
TAR-Datei. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
vii AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
4
5
6
Installieren der Linux-Treiber mit RDMA . . . . . . . . . . . . . . . . . . . . . . .
Optionale Parameter für Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . .
Standardwerte für den Betrieb der Linux-Treiber . . . . . . . . . . . . . . . .
Linux-Treibermeldungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installieren der Windows-Treibersoftware . . . . . . . . . . . . . . . . . . . . . . . . . .
Installieren der Windows-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ausführen des DUP über die GUI . . . . . . . . . . . . . . . . . . . . . . .
DUP-Installationsoptionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
DUP-Installationsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Entfernen der Windows-Treiber. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Verwalten von Adaptereigenschaften . . . . . . . . . . . . . . . . . . . . . . . . .
Einstellen der Optionen zum Strommanagement . . . . . . . . . . . . . . . .
Installieren der VMware-Treibersoftware . . . . . . . . . . . . . . . . . . . . . . . . . . .
VMware-Treiber und Treiberpakete. . . . . . . . . . . . . . . . . . . . . . . . . . .
Installieren der VMware-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Optionale Parameter des VMware-Treibers . . . . . . . . . . . . . . . . . . . .
Standardeinstellungen für VMware-Treiberparameter. . . . . . . . . . . . .
Entfernen des VMware-Treibers . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Unterstützung von FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
iSCSI-Unterstützung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aktualisieren der Firmware
Ausführen des DUP durch Doppelklicken . . . . . . . . . . . . . . . . . . . . . . . . . .
Ausführen des DUP über eine Befehlszeile . . . . . . . . . . . . . . . . . . . . . . . . .
Ausführen des DUP über die BIN-Datei . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Adapterkonfiguration vor dem Start
Anzeigen der Eigenschaften des Firmware-Abbilds. . . . . . . . . . . . . . . . . . .
Konfigurieren der Parameter auf Geräteebene . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von NIC-Parametern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des Data Center Bridging. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des FCoE-Startvorgangs . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des iSCSI-Startvorgangs . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Partitionieren für VMware ESXi 6.0 und ESXi 6.5 . . . . . . . . . . . . . . . .
RoCE-Konfiguration
Unterstützte Betriebssysteme und OFED . . . . . . . . . . . . . . . . . . . . . . . . . .
viii AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
7
8
Vorbereiten des Ethernet-Switches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des Cisco Nexus 6000 Ethernet-Switches . . . . . . . . . .
Konfigurieren des Dell Z9100 Ethernet-Switches . . . . . . . . . . . . . . . .
Konfigurieren von RoCE auf dem Adapter für Windows Server. . . . . . . . . .
Anzeigen von RDMA-Zählern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von RoCE auf dem Adapter für Linux . . . . . . . . . . . . . . . . . .
RoCE-Konfiguration für RHEL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
RoCE-Konfiguration für SLES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Überprüfen der RoCE-Konfiguration auf Linux . . . . . . . . . . . . . . . . . .
VLAN-Schnittstellen und GID-Indexwerte . . . . . . . . . . . . . . . . . . . . . .
Konfiguration von RoCE V2 für Linux . . . . . . . . . . . . . . . . . . . . . . . . .
Bestimmen des RoCE v2-GID-Indexes oder der Adresse . . . . .
Überprüfen des GID-Indexes für RoCE v1 oder RoCE v2 sowie der Adresse mithilfe der System- und
Kategorieparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von RoCE auf dem Adapter für VMware ESX . . . . . . . . . . . .
Konfigurieren von RDMA-Schnittstellen . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von MTU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
RoCE-Modus und Statistikdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA). . . . . . . .
iWARP-Konfiguration
Vorbereiten des Adapters auf iWARP . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von iWARP unter Windows . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von iWARP unter Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installieren des Treibers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von iWARP und RoCE . . . . . . . . . . . . . . . . . . . . . . . . .
Erkennen des Geräts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Unterstützte iWARP-Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . .
Ausführen des Befehls „Perftest“ für iWARP . . . . . . . . . . . . . . . . . . . .
Konfigurieren von NFS-RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und
x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
111
iSER-Konfiguration
Konfigurieren von iSER für RHEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von iSER für SLES 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Verwenden von iSER mit iWARP auf RHEL und SLES . . . . . . . . . . . . . . . .
ix AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
9
Optimieren der Linux-Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von CPUs in den Modus für die maximale Leistung . . .
Konfigurieren von Kernel-sysctl-Einstellungen . . . . . . . . . . . . . . . . . .
Konfigurieren der IRQ-Affinitätseinstellungen . . . . . . . . . . . . . . . . . . .
Konfigurieren der Blockgerätestaffelung . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von iSER auf SLES 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vor dem Start. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von iSER für ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . .
iSCSI-Konfiguration
Einrichten von iSCSI-Boot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Auswählen des bevorzugten iSCSI-Startmodus . . . . . . . . . . . . .
Konfigurieren des iSCSI-Ziels . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren der iSCSI-Bootparameter . . . . . . . . . . . . . . . . . . .
Adapterkonfiguration für den UEFI-Boot-Modus . . . . . . . . . . . . . . . . .
Konfigurieren des iSCSI-Startvorgangs . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren einer statischen iSCSI-Boot-Konfiguration . . . . . . . . . .
Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration. . . . . . . .
Aktivieren der CHAP-Authentifizierung . . . . . . . . . . . . . . . . . . . . . . . .
DHCP-Konfigurationen für den iSCSI-Startvorgang bei IPv4 . . . . . . .
DHCP Option 17, Root Path. . . . . . . . . . . . . . . . . . . . . . . . . . . .
DHCP Option 43, herstellerspezifische Informationen . . . . . . . .
Konfigurieren des DHCP-Servers . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4 . . . . . . . . . . .
DHCPv6 Option 16, Vendor Class-Option . . . . . . . . . . . . . . . . .
DHCPv6 Option 17, Herstellerspezifische Informationen . . . . . .
Konfigurieren von VLANs für den iSCSI-Startvorgang . . . . . . . . . . . .
iSCSI-Offload unter Windows Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installieren der QLogic-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Installieren von Microsoft iSCSI Software Initiator. . . . . . . . . . . . . . . .
Konfigurieren von Microsoft Initiator zur Verwendung des iSCSI
Offload von QLogic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Häufig gestellte Fragen (FAQs) zu iSCSI-Offload . . . . . . . . . . . . . . . .
Installation von iSCSI-Boot für Windows Server 2012 R2 und 2016 . . .
iSCSI-Absturzspeicherabbild. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
159 iSCSI-Offload in Linux-Umgebungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Unterschiede zu bnx2i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von qedi.ko . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
x AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
10
11
12
Überprüfen von iSCSI-Schnittstellen in Linux . . . . . . . . . . . . . . . . . . .
Open-iSCSI und Starten über SAN – Überlegungen. . . . . . . . . . . . . .
RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“ . . . . . . .
RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“ . . . .
SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“ . . . .
SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten
über SAN“. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten
über SAN“ über MPIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab
FCoE-Konfiguration
FCoE – Starten über SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Definieren des BIOS-Startprotokolls . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des Adapter-UEFI-Startmodus . . . . . . . . . . . . . . .
Windows FCoE – Starten über SAN . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
FCoE-Absturzspeicherbild . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Einfügen (Slipstreaming) der Adaptertreiber in die
Windows-Imagedateien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von Linux FCoE-Offload. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Unterschiede zwischen qedf und bnx2fc . . . . . . . . . . . . . . . . . . . . . . . . . . .
Überprüfen von FCoE-Geräten in Linux. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab
SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Windows . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von SR-IOV unter Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von SR-IOV unter VMware . . . . . . . . . . . . . . . . . . . . . . . . . .
NVMe-oF-Konfiguration mit RDMA
Installieren von Gerätetreibern auf beiden Servern . . . . . . . . . . . . . . . . . . .
Konfigurieren des Zielservers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren des Initiatorservers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vorbehandeln des Zielservers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Testen der NVMe-oF-Geräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
xi AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
13
.IRQ-Affinität (multi_rss-affin.sh) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
CPU-Intervall (cpufreq.sh) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Windows Server 2016
Konfigurieren von RoCE-Schnittstellen mit Hyper-V . . . . . . . . . . . . . . . . . .
Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen
RDMA-NIC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC . . . . . . . . . . .
Überprüfen, ob RoCE aktiviert ist . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Hinzufügen von virtuellen Host-NICs (virtuelle Ports) . . . . . . . . . . . . .
Zuordnen des SMB-Laufwerks und Ausführen von
RoCE-Datenverkehr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
RoCE über Switch – Eingebettetes Teaming . . . . . . . . . . . . . . . . . . . . . . . .
Erstellen eines virtuellen Hyper-V-Switches mit SET und virtuellen
RDMA-NICs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aktivieren von RDMA auf SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zuweisen einer VLAN-ID auf SET . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ausführen von RDMA-Datenverkehr auf SET . . . . . . . . . . . . . . . . . . .
Konfigurieren von QoS für RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von VMMQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aktivieren von VMMQ auf dem Adapter . . . . . . . . . . . . . . . . . . . . . . .
Festlegen des VMMQ Max QPs-Standard- und
Nicht-Standard-Ports. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Erstellen eines Switches für eine virtuelle Maschine mit oder ohne
SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine . . . .
Abrufen der Funktionen für den Switch der virtuellen Maschine . . . . .
Erstellen einer VM und Aktivieren von VMMQ auf
VM-Netzwerkadaptern in der VM . . . . . . . . . . . . . . . . . . . . . . . . . . .
Virtuelle Standard- und Maximum VMMQ-NIC . . . . . . . . . . . . . . . . . .
Aktivieren und Deaktivieren von VMMQ auf einer Verwaltungs-NIC . . .
Überwachen der Datenverkehrsstatistik . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren von VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aktivieren von VXLAN-Offload auf dem Adapter. . . . . . . . . . . . . . . . .
Implementieren eines Software Defined Network . . . . . . . . . . . . . . . .
Konfigurieren der Funktion „Direkte Speicherplätze“ . . . . . . . . . . . . . . . . . .
Konfigurieren der Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
xii AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
A
B
14
C
D
Glossar
Implementieren eines Hyper-Konvergenzsystems . . . . . . . . . . . . . . .
Implementieren des Betriebssystems. . . . . . . . . . . . . . . . . . . . .
Konfigurieren des Netzwerks . . . . . . . . . . . . . . . . . . . . . . . . . . .
Konfigurieren der Funktion „Direkte Speicherplätze“ . . . . . . . . .
Implementieren und Verwalten eines Nano-Servers . . . . . . . . . . . . . . . . . .
Rollen sowie Merkmale und Funktionen . . . . . . . . . . . . . . . . . . . . . . .
Implementieren eines Nano-Servers auf einem physischen Server. . . .
Implementieren eines Nano-Servers in einer virtuellen Maschine . . .
Verwalten eines Nano-Servers über eine Remote-Verbindung . . . . . .
Verwalten eines Nano-Servers über die Windows
PowerShell-Remote-Verwaltung . . . . . . . . . . . . . . . . . . . . . . .
Starten der Remote-Windows PowerShell-Sitzung . . . . . . . . . .
Verwalten von QLogic-Adaptern auf einem Windows-Nano-Server . . . .
RoCE-Konfiguration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fehlerbehebung
Fehlerbehebung – Checkliste. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Überprüfen der geladenen Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Überprüfen von Treibern in Windows . . . . . . . . . . . . . . . . . . . . . . . . .
Überprüfen von Treibern in Windows . . . . . . . . . . . . . . . . . . . . . . . . .
Überprüfen von Treibern in VMware . . . . . . . . . . . . . . . . . . . . . . . . . .
Testen der Netzwerkanbindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Testen der Netzwerkkonnektivität für Windows . . . . . . . . . . . . . . . . . .
Testen der Netzwerkkonnektivität für Linux . . . . . . . . . . . . . . . . . . . . .
Microsoft Virtualization mit Hyper-V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Linux-spezifische Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Erfassen von Fehlerbehebungsdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Adapter-LEDS
Kabel und optische Module
Getestete Kabel und optische Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Dell Z9100-Switch- Konfiguration
Einschränkungen bei Merkmalen und Funktionen
xiii AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
Liste der Abbildungen
Abbildung
3-3 QLogic InstallShield Wizard: Lizenzvereinbarungsfenster . . . . . . . . . . . . . . . . . . . .
3-4 InstallShield Wizard: Fenster „Setup Type“ (Setup-Typ) . . . . . . . . . . . . . . . . . . . . .
3-5 InstallShield Wizard: Fenster „Custom Setup“ (Benutzerdefinierter Setup) . . . . . . .
3-6 InstallShield Wizard: Fenster „Ready to Install the Program“
3-7 InstallShield Wizard: Fenster „Completed“ (Abgeschlossen). . . . . . . . . . . . . . . . . .
4-2 Dell Aktualisierungspaket: Laden der neuen Firmware . . . . . . . . . . . . . . . . . . . . . .
5-4 Hauptkonfiguration (Seite), Partitionierungsmodus auf NPAR setzen . . . . . . . . . . .
5-15 Konfiguration der NIC-Partitionierung, Globale Bandbreitenzuordnung . . . . . . . . .
6-3 Leistungsüberwachung: Cavium FastLinQ Zähler . . . . . . . . . . . . . . . . . . . . . . . . . .
6-6 Konfigurieren der RDMA_CM-Anwendungen: Server . . . . . . . . . . . . . . . . . . . . . . .
6-7 Konfigurieren der RDMA_CM-Anwendungen: Client . . . . . . . . . . . . . . . . . . . . . . . .
Seite
xiv AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
7-1 Windows PowerShell-Befehl: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . . . . . .
7-2 Windows PowerShell-Befehl: Get-NetOffloadGlobalSetting . . . . . . . . . . . . . . . . . .
7-4 Perfmon: Überprüfen des iWARP-Datenverkehrs . . . . . . . . . . . . . . . . . . . . . . . . . .
9-3 Systemeinrichtung: Konfigurationsdienstprogramm für die Geräteeinstellungen . . . .
9-5 Systemeinrichtung: NIC-Konfiguration, Boot-Protokoll . . . . . . . . . . . . . . . . . . . . . .
9-7 Systemeinrichtung: Auswählen allgemeiner Parameter. . . . . . . . . . . . . . . . . . . . . .
9-9 Systemeinrichtung: Auswählen von iSCSI Initiator-Parametern . . . . . . . . . . . . . . .
9-11 Systemeinrichtung: Auswählen der ersten iSCSI-Zielparameter . . . . . . . . . . . . . . .
9-13 Systemeinrichtung: Parameter für das zweite iSCSI-Ziel . . . . . . . . . . . . . . . . . . . .
9-14 Systemeinrichtung: Speichern der iSCSI-Änderungen . . . . . . . . . . . . . . . . . . . . . .
9-16 Systemeinrichtung: Allgemeine iSCSI-Parameter, VLAN-ID . . . . . . . . . . . . . . . . . .
10-1 Systemeinrichtung: Auswählen der Geräteeinstellungen. . . . . . . . . . . . . . . . . . . . .
10-2 Systemeinrichtung: Geräteeinstellungen, Port-Auswahl . . . . . . . . . . . . . . . . . . . . .
xv AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
11-2 Systemeinrichtung für SR-IOV: Konfiguration auf Geräteebene . . . . . . . . . . . . . . .
11-7 Windows PowerShell-Befehl: Get-NetadapterSriovVf . . . . . . . . . . . . . . . . . . . . . . .
11-8 Systemeinrichtung: Prozessoreinstellungen für SR-IOV . . . . . . . . . . . . . . . . . . . . .
13-2 Eigenschaften für den virtuellen Hyper-V-Ethernet-Adapter . . . . . . . . . . . . . . . . . .
13-3 Windows PowerShell-Befehl: Get-VMNetworkAdapter . . . . . . . . . . . . . . . . . . . . . .
13-4 Windows PowerShell-Befehl: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . . . . . .
13-6 Leistungsüberwachung zeigt den RoCE-Datenverkehr . . . . . . . . . . . . . . . . . . . . . .
13-13 Erweiterte Eigenschaften: Aktivieren von RSS auf dem virtuellen Switch . . . . . . . .
13-20 Windows PowerShell-Befehl: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . . . . . .
13-23 Windows PowerShell-Befehl: Get-NetAdapterStatistics. . . . . . . . . . . . . . . . . . . . . .
xvi AH0054602-01 F
Benutzerhandbuch—Konvergente Netzwerkadapter
41
xxx
-Serie
Tabellenliste
Tabelle Seite
2-2 Mindestanforderungen an das Host-Betriebssystem . . . . . . . . . . . . . . . . . . . . . . . .
-Serie Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3-7 Standardeinstellungen für VMware-Treiberparameter . . . . . . . . . . . . . . . . . . . . . . .
-Serie VMware-FCoE-Treiber . . . . . . . . . . . . . . . . . . . . .
-Serie iSCSI-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6-1 BS-Unterstützung für RoCE v1, RoCE v2, iWARP und OFED . . . . . . . . . . . . . . . .
34
34
9
13-1 Rollen sowie Merkmale und Funktionen bei Nano-Servern . . . . . . . . . . . . . . . . . . .
14-1 Befehle zum Erfassen von Fehlerbehebungsdaten . . . . . . . . . . . . . . . . . . . . . . . . .
xvii AH0054602-01 F
Vorwort
In diesem Vorwort werden die unterstützten Produkte aufgeführt, die Zielanwender definiert sowie die typografischen Konventionen in diesem Handbuch sowie die rechtlichen Hinweise beschrieben.
Unterstützte Produkte
Dieses Benutzerhandbuch beschreibt die folgenden Cavium
™
-Produkte:
QL41112HFCU-DE 10 GB Converged Network Adapter, Halterung voller Höher
QL41112HLCU-DE 10 GB Converged Network Adapter, Kleinprofil-Halterung
QL41162HFRJ-DE 10 GB Converged Network Adapter, Halterung voller Höhe
QL41162HLRJ-DE 10 GB Converged Network Adapter, Kleinprofil-Halterung
QL41162HMRJ-DE 10 GB Converged Network Adapter
QL41164HMCU-DE 10 GB Converged Network Adapter
QL41164HMRJ-DE 10 GB Converged Network Adapter
QL41262HFCU-DE 10/25 GB Converged Network Adapter, Halterung voller Höhe
QL41262HLCU-DE 10/25 GB Converged Network Adapter,
Kleinprofil-Halterung
QL41262HMCU-DE 10/25 GB Converged Network
QL41264HMCU-DE 10/25 GB Converged Network Adapter
Zielanwender
Dieses Benutzerhandbuch richtet sich an Systemadministratoren und andere technische Mitarbeiter, die für die Konfiguration und Verwaltung von Adaptern zuständig sind, die auf Dell
®
PowerEdge
®
-Servern in Windows
®
-, Linux
®
- oder
VMware
®
-Umgebungen installiert sind.
xviii AH0054602-01 F
Vorwort
Inhalt dieses Handbuchs
Inhalt dieses Handbuchs
Im Anschluss an dieses Vorwort besteht der übrige Teil des Handbuchs aus den folgenden Kapiteln und Anhängen:
Kapitel 1 Produktübersicht enthält eine funktionale Produktbeschreibung,
eine Liste der Funktionen sowie technische Daten zum Adapter.
Kapitel 2 Installation der Hardware
beschreibt die Installation des Adapters und enthält eine Liste der Systemanforderungen sowie eine Checkliste zur
Installationsvorbereitung.
beschreibt die Installation der Adaptertreiber unter Windows, Linux und VMware.
Kapitel 4 Aktualisieren der Firmware
beschreibt die Verwendung des Dell
Update Package (DUP) zum Aktualisieren der Adapter-Firmware.
Kapitel 5 Adapterkonfiguration vor dem Start beschreibt die
Adapterkonfigurationsaufgaben vor dem Start, die mithilfe der Human
Infrastructure Interface (HII)-Anwendung durchgeführt werden können.
Kapitel 6 RoCE-Konfiguration beschreibt die Konfiguration des Adapters,
des Ethernet-Switches und des Hosts für die Verwendung von RDMA over
Converged Ethernet (RoCE).
bietet Abläufe für die Konfiguration von iWARP (Internet Wide Area RDMA-Protokoll) auf Windows-, Linux und
VMware ESXi 6.7-Systemen.
beschreibt die Konfiguration von iSCSI-Erweiterungen für RDMA (iSER) für Linux RHEL und SLES.
Kapitel 9 iSCSI-Konfiguration beschreibt den iSCSI-Start, das
iSCSI-Absturzspeicherbild sowie das iSCSI-Offload für Windows und Linux.
beschreibt den Fibre Channel over Ethernet
(FCoE)-Boot von SAN und den Boot von SAN nach der Installation.
Kapitel 11 SR-IOV-Konfiguration bietet Abläufe für die Konfiguration der
Einzelstamm-E/A-Virtualisierung (SR-IOV) auf Windows-, Linux und
VMware-Systemen.
Kapitel 12 NVMe-oF-Konfiguration mit RDMA
zeigt, wie NVMe-oF auf einem einfachen Netzwerk konfiguriert wird.
Kapitel 13 Windows Server 2016
beschreibt die unter Windows Server 2016 verfügbaren Funktionen.
beschreibt eine Reihe von
Fehlerbehebungsmethoden und zugehörige Ressourcen.
xix AH0054602-01 F
Vorwort
Konventionen im Dokument
Anhang A Adapter-LEDS führt die Adapter-LEDs auf und beschreibt ihre
jeweilige Bedeutung.
Anhang B Kabel und optische Module
führt die Kabel und optischen Module auf, die von Adapter der 41
xxx
-Serie unterstützt werden.
Anhang C Dell Z9100-Switch- Konfiguration
beschreibt die Konfiguration des Dell Z9100-Switch-Ports für die Verbindung mit 25 Gb/s.
Anhang D Einschränkungen bei Merkmalen und Funktionen bietet
Informationen zu den in der aktuellen Version vorhandenen Funktionsein- schränkungen.
Am Ende dieses Handbuchs befindet sich ein Glossar.
Konventionen im Dokument
In diesem Handbuch werden die folgenden Konventionen verwendet:
ANMERKUNG
bietet zusätzliche Informationen.
VORSICHT!
ohne Warnsymbol weist auf eine Gefahr hin, die die
Ausrüstung beschädigen oder zu Datenverlust führen könnte.
!
VORSICHT!
mit Warnsymbol weist auf eine Gefahr hin, die zu leichten bis mittelschweren Verletzungen führen könnte.
!
WARNUNG
weist auf eine Gefahr hin, die zu schweren Verletzungen oder zum Tod führen könnte.
Text in blauer Schrift weist auf einen Hyperlink (eine Verknüpfung) zu einer
Abbildung, einer Tabelle oder einem Abschnitt in diesem Handbuch hin, und
Verknüpfungen zu Websites sind blau unterstrichen dargestellt. Zum
Beispiel:
In Tabelle 9-2 sind Probleme in Hinblick auf die Benutzeroberfläche und den Remote Agent aufgeführt.
Siehe Checkliste für die Installation auf Seite 6 .
Weitere Informationen finden Sie auf www.cavium.com
.
Fettgedruckter
Text weist auf Elemente der Benutzeroberfläche hin, wie z. B. Menüelemente, Schaltflächen, Kontrollkästchen oder
Spaltenüberschriften. Zum Beispiel:
Klicken Sie auf die Schaltfläche
Start
, zeigen Sie auf
Programs
(Programme), zeigen Sie auf
Accessories
(Zubehör) und klicken Sie dann auf
Command Prompt
(Eingabeaufforderung). xx AH0054602-01 F
Vorwort
Konventionen im Dokument
Markieren Sie unter
Notification Options
(Benachrichtigungsoptionen) das Kontrollkästchen
Warning Alarms
(Warnalarme).
Text in der Schriftart
Courier
weist auf einen Dateinamen, einen
Verzeichnispfad oder Text in der Befehlszeile hin. Zum Beispiel:
Um von einem beliebigen Punkt in der Dateistruktur zum
Stammverzeichnis zurückzukehren, Geben Sie
cd /root
ein, und drücken Sie EINGABE.
Geben Sie den folgenden Befehl aus:
sh ./install.bin
.
Namen und Anschläge von Tasten sind in GROßBUCHSTABEN dargestellt:
Drücken Sie STRG+P.
Drücken Sie die UP ARROW (Nach Oben)-Taste.
Kursiver
Text weist auf Begriffe, Hervorhebungen, Variablen oder
Dokumententitel hin. Zum Beispiel:
Was sind
Tastaturbefehle
?
Geben Sie zur Eingabe des Datums
mm/tt/jjjj
ein (wobei
mm
für den
Monat,
tt
den Tag und
jjjj
das Jahr steht).
Thementitel in Anführungszeichen weisen auf miteinander verbundene
Themen entweder innerhalb dieses Handbuchs oder in der Onlinehilfe hin, welche in diesem Dokument auch als
das Hilfesystem
bezeichnet wird.
Es gelten u.a. die folgenden Syntaxkonventionen für die Befehle in der
Befehlszeilenschnittstelle (CLI):
Klartext weist auf Elemente hin, die Sie wie gezeigt eingeben müssen.
Zum Beispiel:
qaucli -pr nic -ei
< >
(spitze Klammern) weisen auf eine Variable hin, deren Wert Sie angeben müssen. Zum Beispiel:
<serial_number>
ANMERKUNG
Nur für CLI-Befehle sind Variablennamen immer mittels spitzer
Klammern statt
kursiv
angegeben.
[ ]
(eckige Klammern) weisen auf einen optionalen Parameter hin.
Zum Beispiel:
[<file name>]
bedeutet, dass Sie einen Dateinamen angeben müssen oder ihn weglassen können, um den Standarddateinamen auszuwählen.
xxi AH0054602-01 F
Vorwort
Rechtliche Hinweise
|
(senkrechter Strich) weist auf sich wechselseitig ausschließende
Optionen hin; wählen Sie nur eine Option aus. Zum Beispiel:
on|off
1|2|3|4
...
(Auslassungspunkte) weisen darauf hin, dass das vorhergehende
Element wiederholt werden kann. Zum Beispiel:
x... bedeutet
eine
oder mehrere Instanzen von
x
.
[x...] bedeutet
null
oder mehrere Instanzen von
x
.
Vertikale Ellipsen in der beispielhaften Befehlsausgabe zeigen an, an welcher Stelle Teile von sich wiederholenden Ausgabedaten bewusst ausgelassen wurden.
( )
(runde Klammern) und
{ }
(geschweifte Klammern) werden verwendet, um logische Unklarheiten zu vermeiden. Zum Beispiel:
a|b c ist unklar
{(a|b) c}
bedeutet a
oder b
, gefolgt von c
.
{a|(b c)}
bedeutet entweder a
oder b c
.
Rechtliche Hinweise
Zu den rechtlichen Hinweisen in diesem Abschnitt gehören Informationen zur
Laser-Sicherheit (FDA-Hinweis), zum Behördenzertifikat sowie zur Einhaltung der
Produktsicherheit.
Laser-Sicherheit – FDA-Hinweis
Dieses Produkt entspricht den DHHS-Regelungen 21CFR Chapter I, Subchapter
J. Dieses Produkt wurde gemäß IEC60825-1 zur Sicherheitsklasse von Laser- produkten ausgelegt und hergestellt.
KLASSE I
LASERPRODUKT
Class 1
Laser Product 1
Appareil laser de classe 1
Caution
– Class 1 laser radiaton when open
Do not view directly with optical instruments
Attention
– Radiation laser de classe 1
Ne pas regarder directement avec des instruments optiques
Laserprodukt der Klasse 1
Vorsicht
– Laserstrahlung der Klasse 1 bei geöffneter Abdeckung
Direktes Ansehen mit optischen Instrumenten vermeiden
Luokan 1 Laserlaite
Varoitus
– Luokan 1 lasersäteilyä, kun laite on auki
Älä katso suoraan laitteeseen käyttämällä optisia instrumenttej xxii AH0054602-01 F
Vorwort
Rechtliche Hinweise
Behördenzertifikat
Der folgende Abschnitt fasst die EMV- und EMI-Testspezifikationen zusammen, die auf dem Adapter der 41
xxx
-Serie angewendet wurden, um den Standards für
Emissionen, Immunität und Produktsicherheit zu entsprechen.
Störstrahlungs- und EMV-Anforderungen
Konformität mit Teil 15 der FCC-Bestimmungen: Klasse A
Erklärung zur FCC-Konformität:
Dieses Gerät entspricht Abschnitt 15 der
FCC-Richtlinien. Der Betrieb unterliegt den beiden folgenden Bedingungen:
(1) Dieses Gerät darf keine Störungen verursachen. (2) Dieses Gerät muss unempfindlich gegenüber störenden Beeinflussungen, die Betriebsstörungen verursachen können, sein.
ICES-003-Konformität: Klasse A
Dieses digitale Gerät der Klasse A entspricht der Kanadischen Norm ICES-003.
Cet appareil numériqué de la classe A est conformé à la norme NMB-003 du Canada.
Konformität mit dem CE-Kennzeichen der Richtlinien 2014/30/EG und
2014/35/EU über die elektromagnetische Verträglichkeit (EMV):
EN55032:2012/ CISPR 32:2015: Klasse A
EN55024:2010
EN61000-3-2: Stromoberschwingungsgrenzwerte
EN61000-3-3: Spannungsschwankungen und Flimmern
Sicherheitsnormen
EN61000-4-2 : Prüfung der Störfestigkeit gegen die Entladung statischer Elektrizität
EN61000-4-3 : Prüfung der Störfestigkeit gegen hochfrequente elektromagnetische
Felder
EN61000-4-4 : Prüfung der Störfestigkeit gegen schnelle transiente elektrische
Störgrößen/Burst
EN61000-4-5 : Prüfung der Störfestigkeit gegen Stoßspannungen
EN61000-4-6 : Störfestigkeit gegen leitungsgeführte Störgrößen, induziert durch
hochfrequente Felder
EN61000-4-8 : Netzfrequenz Magnetfeld
EN61000-4-11 : Prüfungen der Störfestigkeit gegen Spannungseinbrüche,
Kurzzeitunterbrechungen und Spannungsschwankungen
VCCI:
2015-04, Klasse A
AS/NZS; CISPR 32:
2015, Klasse A
CNS 13438:
2006, Klasse A xxiii AH0054602-01 F
Vorwort
Rechtliche Hinweise
KCC: Klasse A
Korea-RRA-Klasse-A-zertifiziert
Produktname/Modell: Konvergente Netzwerkadapter und intelligente Ethernet-Adapter
Inhaber des Zertifikats: QLogic Corporation
Herstellungsdatum: Siehe Datumscode auf dem Produkt.
Hersteller/Ursprungsland: QLogic Corporation/USA
Ausrüstung der Klasse A
(Ausrüstung für
Unternehmen im
Bereich Information/
Telekommunikation)
Da diese Ausrüstung die EMC-Registrierung für geschäftliche Einsatzzwecke durchlaufen hat, werden
Verkäufer und/oder Käufer gebeten, dies zu beachten und im
Falle eines unrechtmäßigen Kaufs oder Verkaufs den
Verwendungsbereich in „private Einsatzzwecke“ zu ändern.
Koreanisches Sprachformat – Klasse A
VCCI: Klasse A
Dies ist ein Produkt der Klasse A nach der vom VCCI festgelegten Norm. Wenn dieses Gerät in einer häuslichen Umgebung verwendet wird, können
Funkstörungen auftreten. In diesem Fall ist der Benutzer ggf. aufgefordert,
Abhilfemaßnahmen zu ergreifen.
Konformität mit der Produktsicherheit
UL, cUL-Prüfzeichen zur Produktsicherheit
:
UL 60950-1 (2. Edition) A1 + A2, 14.10.2014
CSA C22.2 Nr.60950-1-07 (2. Edition) A1 +A2, Oktober 2014
Nur mit aufgelisteten Informationstechnologiegeräten (ITE) oder dazu
äquivalenten Geräten verwenden.
Entspricht 21 CFR 1040.10 und 1040.11, 2014/30/EU, 2014/35/EU.
xxiv AH0054602-01 F
Vorwort
Rechtliche Hinweise
2006/95/EG Niederspannungsrichtlinie
:
TÜV EN60950-1:2006+A11+A1+A12+A2, 2. Edition
TÜV IEC 60950-1: 2005, 2. Edition, Am1: 2009 + Am2: 2013 CB
CB-zertifiziert nach IEC 60950-1 2. Edition xxv AH0054602-01 F
1
Produktübersicht
Dieses Kapitel enthält die folgenden Informationen zum Adapter der 41
xxx
-Serie:
„Technische Daten des Adapters“ auf Seite 3
Funktionsbeschreibung
Die Adapter der QLogicFastLinQ
®
41000-Serie sind Converged Network-Adapter und Intelligent Ethernet-Adapter mit 10 und 25 GB, die für beschleunigte
Datennetzwerke in Serversystemen entwickelt wurden. Die Adapter der
41000er-Serie enthalten einen 10/25Gb-Ethernet-MAC mit Vollduplexfunktion.
Mithilfe der Teaming-Software des Betriebssystems können Sie Ihr Netzwerk in virtuelle LANs (VLANs) aufteilen sowie mehrere Netzwerkadapter in Teams zusammenfassen, um die Funktionen für den Netzwerk-Lastausgleich und die
Fehlertoleranz zu erhalten. Weitere Informationen zur Teaming-Funktion finden
Sie in der Dokumentation zu Ihrem Betriebssystem.
Merkmale und Funktionen
Die Adapter der 41
xxx
-Serie verfügen über folgende Merkmale und Funktionen:
Einige Merkmale und Funktionen stehen möglicherweise nicht bei allen Adaptern zur Verfügung:
NIC-Partitionierung (NPAR)
Single-Chip-Lösung:
10/25GB-MAC
SerDes-Schnittstelle für DAC-Transceiver-Verbindung (Direct
Attach Copper)
PCIe
®
3.0 x8
Hardware ohne Zwischenspeicherung
Leistungsmerkmale:
TCP-, IP-, UDP-Prüfsummen-Verschiebungen
1 AH0054602-01 F
1–Produktübersicht
Merkmale und Funktionen
TCP Segmentation Offload (TSO)
Large Segment Offload (Large-Send-Verschiebung, LSO)
Generic Segment Offload (GSO)
Large Receive Offload (LRO)
Receive Segment Coalescing (RSC)
Dynamische, virtuelle Microsoft
®
Maschinen-Queue (VMQ) und
Linux-Multiqueue
Adaptive Interrupts:
Transmit/Receive Side Scaling (TSS/RSS)
Statuslose Offloads für die Netzwerkvirtualisierung über Generic
Routing Encapsulation (NVGRE) und getunnelten Datenverkehr über virtuelles LAN (VXLAN) L2/L3 GRE
1
Verwaltungsfunktionen:
System Management Bus (SMB)-Controller
Advanced Configuration and Power Interface
(ACPI, Schnittstelle für erweiterte Konfiguration und Stromversorgung) 1.1a-konform (mehrere
Strommodi)
Unterstützung für Network Controller-Sideband Interface (NC-SI)
Erweiterte Netzwerkfunktionen:
Jumbo-Frames (bis zu 9.600 Byte). Das Betriebssystem und der
Verbindungspartner müssen Jumbo-Frames unterstützen.
Virtuelle LANs (VLANs)
Flusssteuerung (IEEE-Standard 802.3x)
Logische Verbindungssteuerung (IEEE-Standard 802.2)
High-Speed-On-Chip-Prozessoren für Rechner mit beschränktem
Befehlssatz (RISC)
Integrierter 96-KB-Frame-Pufferspeicher (nicht für alle Modelle verfügbar)
1.024 Klassifizierungsfilter (nicht für alle Modelle verfügbar)
Unterstützung von Multicast-Adressen über 128-Bit-Hardware-Streufunktion
Serieller NVRAM-Flash-Speicher
PCI Power-Management-Schnittstelle
(V1.1)
1
Diese Funktion erfordert BS- oder Hypervisor-Unterstützung, damit die Offloads verwendet werden können.
2 AH0054602-01 F
1–Produktübersicht
Technische Daten des Adapters
Unterstützung für 64-Bit-Basisadressregisters (BAR)
Prozessorunterstützung von EM64T
iSCSI- und FCoE-Boot-Unterstützung
2
Technische Daten des Adapters
Die technischen Daten für den Adapter der 41
xxx
-Serie umfassen die physischen
Kenndaten und die Normenkonformitätsreferenzen des Adapters.
Physische Kenndaten
Die Adapter der 41
xxx
-Serie sind Standard-PCIe-Karten, die entweder mit einer
Halterung in voller Höhe oder einer Kleinprofil-Halterung geliefert werden und in einem Standard-PCIe-Steckplatz verwendet werden können.
Standardspezifikationen
Es gelten die folgenden technischen Daten zu Standards:
PCI Express Base Specification
, Version 3.1
PCI Express Card Electromechanical Specification
, Version 3.0
PCI Bus Power Management Interface Specification
, Version 1.2
Technische Daten zu IEEE:
802.3-2015 IEEE-Standard für Ethernet
(Datenflusssteuerung)
802.1q
(VLAN)
802.1AX
(Link Aggregation)
802.1ad
(QinQ)
802.1p
(Prioritätskodierung)
1588-2002 PTPv1
(Precision Time Protocol)
1588-2008 PTPv2
IEEE 802.3az Energy Efficient Ethernet (EEE)
IPv4 (RFQ 791)
IPv6 (RFC 2460)
2
Die Hardware-Unterstützungsgrenze für SR-IOV VFs kann variieren. Die Grenze kann in bestimmten BS-Umgebungen geringer sein. Weitere Informationen finden Sie im entsprechenden Abschnitt der Dokumentation zu Ihrem BS.
3 AH0054602-01 F
2
Installation der Hardware
In diesem Kapitel finden Sie die folgenden Informationen zur Hardware-Installation:
„Sicherheitsvorkehrungen“ auf Seite 5
„Checkliste für die Installationsvorbereitung“ auf Seite 6
„Installieren des Adapters“ auf Seite 6
Systemanforderungen
Bevor Sie mit der Installation eines QLogic Adapter der 41
xxx
-Series beginnen,
stellen Sie sicher, dass Ihr System die unter Tabelle 2-1 und
genannten Voraussetzungen für die Hardware und das Betriebssystem erfüllt.
Eine vollständige Liste der unterstützten Betriebssysteme finden Sie auf der
Cavium-Website.
Tabelle 2-1. Anforderungen an die Host-Hardware
Hardware Anforderung
Architektur
PCIe
Speicher
Kabel und optische
Module
IA-32 oder EMT64 gemäß den Anforderungen des
Betriebssystems
PCIe Gen2 x8 (2x10G NIC)
PCIe Gen3 x8 (2x25G NIC)
Die volle Dual-Port 25-GBit-Bandbreite wird auf PCIe Gen3 x8 oder schnelleren Steckplätzen unterstützt.
(Mindestens) 8 GB RAM
Der Adapter der 41
xxx
-Serie wurde für die Interoperabilität mit einer großen Bandbreite an 1G-, 10G- und 25G-Kabeln und
optischen Modulen getestet. Siehe „Getestete Kabel und optische Module“ auf Seite 279 .
4 AH0054602-01 F
2–Installation der Hardware
Sicherheitsvorkehrungen
Tabelle 2-2. Mindestanforderungen an das Host-Betriebssystem
Betriebssystem
Windows Server
Linux
VMware
Anforderung
2012, 2012 R2, 2016 (einschließlich Nano)
RHEL
®
6.8, 6.9, 7.2, 7.3, 7.4
SLES
®
11 SP4, SLES 12 SP2, SLES 12 SP3
ESXi ab Version 6.0 u3 für 25G-Adapter
ANMERKUNG
führt die Mindest-Host-Betriebssystemanforderungen auf. Eine vollständige Liste der unterstützten Betriebssysteme finden Sie auf der
Cavium-Website.
Sicherheitsvorkehrungen
!
WARNUNG
Der Adapter wird in ein System installiert, dessen Betriebsspannungen tödlich sein können. Bevor Sie das Gehäuse Ihres Systems öffnen, beachten Sie die nachfolgenden Sicherheitsvorkehrungen, um sich selbst vor Gefahren zu schützen und die Beschädigung von Systemkomponenten zu vermeiden.
Entfernen Sie alle Metallobjekte oder Schmuck von Händen und
Handgelenken.
Stellen Sie sicher, dass Sie ausschließlich isolierte bzw. nichtleitende
Werkzeuge verwenden.
Stellen Sie sicher, dass das System ausgeschaltet und der Netzstecker gezogen ist, bevor Sie interne Komponenten berühren.
Installieren oder entfernen Sie Adapter in einer Umgebung, die nicht elektrostatisch aufgeladen ist. Das Tragen einer ordnungsgemäß geerdeten Erdungsmanschette am Handgelenk und die Verwendung anderer Antistatik-Geräte sowie einer antistatischen Fußmatte wird ausdrücklich empfohlen.
5 AH0054602-01 F
2–Installation der Hardware
Checkliste für die Installationsvorbereitung
Checkliste für die Installationsvorbereitung
Führen Sie vor der Installation des Adapters die folgenden Schritte aus:
1.
Überprüfen Sie, ob Ihr Server die unter „Systemanforderungen“ auf Seite 4
aufgeführten Hardware- und Software-Anforderungen erfüllt.
2.
Überprüfen Sie, ob Ihr System das neueste BIOS verwendet.
ANMERKUNG
Falls Sie die Adaptersoftware über die Website von Cavium erhalten haben, überprüfen Sie den Pfad zu den Adaptertreiberdateien.
3.
Wenn Ihr System eingeschaltet ist, fahren Sie es herunter.
4.
Wenn das System vollständig heruntergefahren ist, schalten Sie es aus, und ziehen Sie den Netzstecker.
5.
Entfernen Sie die Verpackung des Adapters und legen Sie die Karte auf einer antistatischen Oberfläche ab.
6.
Prüfen Sie den Adapter und insbesondere den Stiftsockel auf sichtbare
Anzeichen von Schäden. Installieren Sie niemals einen beschädigten Adapter.
Installieren des Adapters
Die folgenden Anweisungen gelten für die Installation der QLogic Adapter der
41
xxx
-Serie auf den meisten Systemen. Informationen zum Durchführen dieser
Aufgaben finden Sie in den Handbüchern, die Sie zusammen mit Ihrem System erhalten haben.
So installieren Sie den Adapter:
1.
Lesen Sie nochmals die Abschnitte
„Sicherheitsvorkehrungen“ auf Seite 5
und „Checkliste für die Installationsvorbereitung“ auf Seite 6
. Stellen Sie vor dem Installieren des Adapters sicher, dass das System ausgeschaltet und der Netzstecker gezogen ist, und dass entsprechende Erdungsmaßnahmen durchgeführt wurden.
2.
Öffnen Sie das Systemgehäuse und wählen Sie den Steckplatz aus, der der
Adaptergröße entspricht. Dies kann der Steckplatz PCIe Gen 2 x8 oder
PCIe Gen 3 x8 sein. Ein schmalerer Adapter kann in einen breiteren
Steckplatz gesteckt werden (x8 in einen x16), aber ein breiterer Adapter kann nicht in einen schmaleren Steckplatz gesteckt werden (x8 in einen x4).
Informationen dazu, woran Sie einen PCIe-Steckplatz erkennen, finden Sie in Ihrer Systemdokumentation.
3.
Entfernen Sie die Abdeckplatte vom ausgewählten Steckplatz.
6 AH0054602-01 F
2–Installation der Hardware
Installieren des Adapters
4.
Richten Sie die Steckerleiste des Adapters am PCIe Express-Steckplatz des
Systems aus.
5.
Drücken Sie gleichmäßig auf die beiden Ecken der Karte, und schieben
Sie die Adapterkarte in den Steckplatz, bis sie fest sitzt. Wenn der Adapter ordnungsgemäß eingesetzt wurde, sind die Port-Anschlüsse an der
Steckplatzöffnung ausgerichtet, und die Frontplatte schließt genau mit dem
Systemgehäuse ab.
VORSICHT!
Beim Einsetzen der Karte sollte nicht übermäßig viel Kraft aufgewendet werden, da dies zur Beschädigung des Systems oder des Adapters führen kann. Wenn sich der Adapter nicht einsetzen lässt, nehmen Sie ihn wieder heraus, richten Sie ihn nochmals aus, und versuchen Sie es erneut.
6.
Befestigen Sie den Adapter mit der Adapterklemme oder -schraube.
7.
Schließen Sie das Systemgehäuse und entfernen Sie Ihre Antistatikgeräte.
7 AH0054602-01 F
3
Treiberinstallation
Dieses Kapitel enthält folgende Informationen zur Treiberinstallation:
Installieren der Linux-Treibersoftware
„Installieren der Windows-Treibersoftware“ auf Seite 17
„Installieren der VMware-Treibersoftware“ auf Seite 28
Installieren der Linux-Treibersoftware
In diesem Abschnitt wird die Installation von Linux-Treibern mit und ohne RDMA
(Remote Direct Memory Access, Remote-Direktzugriffspeicher) beschrieben.
Außerdem werden die optionalen Parameter, Standardwerte, Meldungen und
Statistikdaten für Linux-Treiber erläutert.
Installieren der Linux-Treiber ohne RDMA
Installieren der Linux-Treiber mit RDMA
Optionale Parameter für Linux-Treiber
Standardwerte für den Betrieb der Linux-Treiber
Die Adapter der 41
xxx
-Serie-Linux-Treiber und die unterstützende Dokumentation sind auf der Dell Support-Seite verfügbar: dell.support.com
Tabelle 3-1 beschreibt die Adapter der 41
xxx
-Serie-Linux-Treiber.
8 AH0054602-01 F
3–Treiberinstallation
Installieren der Linux-Treibersoftware
Linux-
Treiber
qed qede qedr qedi qedf
Tabelle 3-1. QLogic Adapter der 41xxx-Serie Linux-Treiber
Beschreibung
Das qed-Kern-Treibermodul steuert direkt die Firmware, verarbeitet Interrupts und fungiert als API auf unterer Ebene für den protokollspezifischen Treibersatz. Die qed-Schnittstellen mit den qede-, qedr-, qedi- und qedf-Treibern. Das Linux-Kernmodul verwaltet alle
PCI-Geräteressourcen (Registrierungen, Hostschnittstellen-Warteschlangen usw.).
Das qed-Kernmodul erfordert die Linux-Kernel-Version 2.6.32 oder später. Die
Testverfahren konzentrierten sich auf die x86_64-Architektur.
Linux-Ethernet-Treiber für den Adapter der 41
xxx
-Serie. Durch diesen Treiber wird die
Hardware direkt gesteuert. Er ist außerdem für das Senden und Empfangen von
Ethernet-Paketen für den Linux-Hostnetzwerk-Stack verantwortlich. Dieser Treiber empfängt und verarbeitet auch Geräte-Interrupts für sich selbst (L2-Netzwerkbetrieb).
Der qede-Treiber erfordert die Linux-Kernel-Version 2.6.32 oder später. Die Testverfahren konzentrierten sich auf die x86_64-Architektur.
Linux RDMA over Converged Ethernet (RoCE)-Treiber. Dieser Treiber arbeitet in der
OpenFabrics Enterprise Distribution (OFED™)-Umgebung in Verbindung mit dem qed-Kernmodul und dem qede-Ethernet-Treiber. Bei RDMA-Benutzerbereichsanwendungen ist es außerdem erforderlich, die libqedr-Benutzerbibliothek auf dem Server zu installieren.
LinuxiSCSI-Offload-Treiber für den Adapter der 41
xxx
-Serie. Dieser Treiber verwendet die Open iSCSI-Bibliothek.
LinuxFCoE-Offload-Treiber für Adapter der 41
xxx
-Serie. Dieser Treiber verwendet die
Open FCoE-Bibliothek.
Die Linux-Treiber können unter Verwendung eines Red Hat
®
Package Managers
(RPM) als Quelle oder eines kmod-RPM-Pakets installiert werden. Die
RHEL-RPM-Pakete sehen folgendermaßen aus: qlgc-fastlinq-<version>.<OS>.src.rpm
qlgc-fastlinq-kmp-default-<version>.<arch>.rpm
Die SLES-Quellpakete und die kmp-RPM-Pakete sehen folgendermaßen aus:
qlgc-fastlinq-<version>.<OS>.src.rpm
qlgc-fastlinq-kmp-default-<version>.<OS>.<arch>.rpm
Mit dem folgenden RPM-Kernelmodul (kmod) werden die Linux-Treiber auf
SLES-Hosts installiert, die den XEN-Hypervisor betreiben:
qlgc-fastlinq-kmp-xen-<version>.<OS>.<arch>.rpm
9 AH0054602-01 F
3–Treiberinstallation
Installieren der Linux-Treibersoftware
Mit dem folgenden Quell-RPM wird der RDMA-Bibliothekscode auf RHEL- und
SLES-Hosts installiert:
qlgc-libqedr-<version>.<OS>.<arch>.src.rpm
Mit dem folgenden TAR-BZip2-Quellcode (BZ2) werden die Linux-Treiber auf
RHEL- und SLES-Hosts installiert:
fastlinq-<version>.tar.bz2
ANMERKUNG
Für Netzwerkinstallationen über NFS, FTP oder HTTP (mithilfe einer
Netzwerk-Bootdiskette) ist unter Umständen ein Treiberdatenträger mit dem qede-Treiber erforderlich. Linux-Starttreiber können durch Modifizieren der
Steuerdatei (Makefile) und der make-Umgebung kompiliert werden.
Installieren der Linux-Treiber ohne RDMA
So installieren Sie Linux-Treiber ohne RDMA:
1.
Laden Sie die Adapter der 41
xxx
-Serie-Linux-Treiber von Dell herunter: dell.support.com
2.
Entfernen Sie die vorhandenen Linux-Treiber, wie unter „Entfernen der
Linux-Treiber“ auf Seite 10 beschrieben.
3.
Installieren Sie die neuen Linux-Treiber, indem Sie eine der folgenden
Methoden anwenden:
Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets
Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets
Installieren der Linux-Treiber unter Verwendung der TAR-Datei
Entfernen der Linux-Treiber
Es gibt zwei Verfahren zum Entfernen von Linux-Treibern: eines für eine
Nicht-RDMA-Umgebung und eines für eine RDMA-Umgebung. Wählen Sie das für Ihre Umgebung relevante Verfahren.
10 AH0054602-01 F
3–Treiberinstallation
Installieren der Linux-Treibersoftware
Um Linux-Treiber in einer Nicht-RDMA-Umgebung zu entfernen, entladen und entfernen Sie die Treiber:
Führen Sie das Verfahren aus, das sich auf das ursprüngliche Installationsverfahren und das Betriebssystem bezieht.
Falls die Linux-Treiber unter Verwendung eines RPM-Pakets installiert wurden, führen Sie die folgenden Befehle aus:
rmmod qede rmmod qed depmod -a rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>
Falls die Linux-Treiber unter Verwendung einer TAR-Datei installiert wurden, führen Sie die folgenden Befehle aus:
rmmod qede rmmod qed depmod -a
Für RHEL:
cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko
Für SLES:
cd /lib/modules/<Version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko
Gehen Sie folgendermaßen vor, um Linux-Treiber in einer
Nicht-RDMA-Umgebung zu entfernen:
1.
Führen Sie den folgenden Befehl aus, um den Pfad zu den derzeit installierten
Treibern abzurufen:
modinfo <Treibername>
2.
Entladen und entfernen Sie die Linux-Treiber.
Falls die Linux-Treiber unter Verwendung eines RPM-Pakets installiert wurden, führen Sie die folgenden Befehle aus:
modprobe -r qede depmod -a rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>
Falls die Linux-Treiber unter Verwendung einer TAR-Datei installiert wurden, führen Sie die folgenden Befehle aus:
modprobe -r qede depmod -a
11 AH0054602-01 F
3–Treiberinstallation
Installieren der Linux-Treibersoftware
ANMERKUNG
Wenn quedr vorhanden ist, verwenden Sie stattdessen den Befehl modprobe -r qedr
.
3.
Löschen Sie die Dateien qed.ko
, qede.ko
und qedr.ko
aus dem jeweiligen
Verzeichnis. Geben Sie beispielsweise in SLES die folgenden Befehle ein:
cd /lib/modules/
<version>
/updates/qlgc-fastlinq rm -rf qed.ko
rm -rf qede.ko
rm -rf qedr.ko
depmod -a
Gehen Sie folgendermaßen vor, um Linux-Treiber in einer RDMA-Umgebung zu entfernen:
1.
Führen Sie den folgenden Befehl aus, um den Pfad zu den installierten
Treibern abzurufen:
modinfo <Treibername>
2.
Entladen und entfernen Sie die Linux-Treiber.
modprobe -r qedr modprobe -r qede modprobe -r qed depmod -a
3.
Entfernen Sie die Treibermoduldateien:
Falls die Treiber unter Verwendung eines RPM-Pakets installiert wurden, führen Sie den folgenden Befehl aus:
rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>
Falls die Treiber unter Verwendung einer TAR-Datei installiert wurden, führen Sie die folgenden Befehle für Ihr jeweiliges Betriebssystem aus:
Für RHEL:
cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko
Für SLES:
cd /lib/modules/<Version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko
12 AH0054602-01 F
3–Treiberinstallation
Installieren der Linux-Treibersoftware
Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets
So installieren Sie die Linux-Treiber unter Verwendung des src-RPM-Pakets:
1.
Führen Sie den folgenden Befehl an einer Eingabeaufforderung aus:
rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.src.rpm
2.
Wechseln Sie zum Verzeichnis des RPM-Pfads, und erstellen Sie das
Binär-RPM für den Kernel:
Für RHEL:
cd /root/rpmbuild rpmbuild -bb SPECS/fastlinq-<version>.spec
Für SLES:
cd /usr/src/packages rpmbuild -bb SPECS/fastlinq-<version>.spec
3.
Installieren Sie das neu kompilierte RPM:
rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.<arch>.rpm
ANMERKUNG
Die Option
--force
kann bei einigen Linux-Distributionen erforderlich sein, wenn Konflikte gemeldet werden.
Die Treiber werden an den folgenden Pfaden installiert.
Für SLES:
/lib/modules/<Version>/updates/qlgc-fastlinq
Für RHEL:
/lib/modules/<Version>/extra/qlgc-fastlinq
4.
Aktivieren Sie alle ethX-Schnittstellen wie folgt:
ifconfig <ethX> up
5.
Konfigurieren Sie für SLES Ihre Ethernet-Schnittstellen mit YaST so, dass sie beim Booten automatisch gestartet werden. Legen Sie dazu eine statische IP-Adresse fest oder aktivieren Sie DHCP an der Schnittstelle.
13 AH0054602-01 F
3–Treiberinstallation
Installieren der Linux-Treibersoftware
Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets
So installieren Sie das kmod-RPM-Paket:
1.
Führen Sie den folgenden Befehl an einer Eingabeaufforderung aus:
rpm -ivh qlgc-fastlinq-<version>.<arch>.rpm
2.
Laden Sie den Treiber erneut:
modprobe -r qede modprobe qede
Installieren der Linux-Treiber unter Verwendung der TAR-Datei
So installieren Sie die Linux-Treiber unter Verwendung der TAR-Datei:
1.
Erstellen Sie ein Verzeichnis, und extrahieren Sie die TAR-Dateien in dieses
Verzeichnis:
tar xjvf fastlinq-<version>.tar.bz2
2.
Wechseln Sie in das soeben erstellte Verzeichnis, und installieren Sie anschließend die Treiber:
cd fastlinq-<version> make clean; make install
Der qed- und der qede-Treiber werden an den folgenden Pfaden installiert.
Für SLES:
/lib/modules/<Version>/updates/qlgc-fastlinq
Für RHEL:
/lib/modules/<Version>/extra/qlgc-fastlinq
3.
Testen Sie die Treiber, indem Sie sie laden (entfernen Sie ggf. zuerst die vorhandenen Treiber):
rmmod qede rmmod qed modprobe qed modprobe qede
14 AH0054602-01 F
3–Treiberinstallation
Installieren der Linux-Treibersoftware
Installieren der Linux-Treiber mit RDMA
Weitere Informationen zu iWARP finden Sie unter Kapitel 7 iWARP-Konfiguration
.
Gehen Sie wie folgt vor, um die Linux-Treiber in einer Inbox-OFED-Umgebung zu installieren:
1.
Laden Sie die Adapter der 41
xxx
-Serie-Linux-Treiber von Dell herunter: dell.support.com
2.
Konfigurieren Sie RoCE auf dem Adapter, wie unter
RoCE auf dem Adapter für Linux“ auf Seite 83 beschrieben.
3.
Entfernen Sie vorhandene Linux-Treiber, wie unter „Entfernen der
Linux-Treiber“ auf Seite 10 beschrieben.
4.
Installieren Sie die neuen Linux-Treiber, indem Sie eine der folgenden
Methoden anwenden:
Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets
Installieren der Linux-Treiber unter Verwendung der TAR-Datei
5.
Installieren Sie libqedr-Bibliotheken, um mit
RDMA-Benutzerbereichsanwendungen zu arbeiten. Der libqedr-RPM ist nur für Inbox-OFED verfügbar. Sie müssen auswählen, welcher RDMA
(RoCE, RoCEv2 oder iWARP) in UEFI verwendet wird, bis die gleichzeitige
RoCE+iWARP-Funktion in der Firmware unterstützt wird. „None“ (Kein) ist standardmäßig aktiviert. Geben Sie den folgenden Befehl aus:
rpm –ivh qlgc-libqedr-<version>.<arch>.rpm
6.
Um die libqedr-Benutzerbereichsbibliothek aufzubauen und zu installieren, führen Sie den folgenden Befehl aus:
'make libqedr_install'
7.
Testen Sie die Treiber, indem Sie sie wie folgt laden:
modprobe qedr
make install_libeqdr
15 AH0054602-01 F
3–Treiberinstallation
Installieren der Linux-Treibersoftware
Optionale Parameter für Linux-Treiber
Tabelle 3-2 beschreibt die optionalen Parameter für den qede-Treiber.
debug
Parameter
int_mode gro_enable
Tabelle 3-2. Optionale qede-Treiberparameter
err_flags_override
Beschreibung
Steuert die Treiberausführlichkeitsebene ähnlich wie ethtool -s <dev> msglvl
.
Steuert einen anderen Interrupt-Modus als MSI-X.
Aktiviert oder deaktiviert die Hardware-GRO-Funktion (Generic Receive
Offload). Diese Funktion ist ähnlich wie die SW-GRO-Funktion des
Kernels, sie wird aber von der Geräte-Hardware ausgeführt.
Eine Bitmap zum Deaktivieren oder Erzwingen von Maßnahmen im Falle eines HW-Fehlers:
Bit Nr. 31 – Aktivierungsbit für diese Bitmaske
Bit Nr. 0 – Verhinderung der Berücksichtigung von HW-Warnungen
Bit Nr. 1 – Erfassung von Fehlerbehebungsdaten
Bit Nr. 2 – Auslösen eines Wiederherstellungsprozesses
Bit Nr. 3 – WARNRUF zur Verfolgung des Datenflusses, der den Fehler ausgelöst hat
Standardwerte für den Betrieb der Linux-Treiber
Tabelle 3-3 führt die Standardwerte für den Betrieb der qed- und
qede-Linux-Treiber auf.
Tabelle 3-3. Standardwerte für den Betrieb der Linux-Treiber
Betrieb
Speed
(Geschwindigkeit)
MSI/MSI-X
Flow Control
(Flusskontrolle)
MTU
Rx Ring Size
(Rx-Ringgröße)
Tx Ring Size
(Tx-Ringgröße)
qed-Treiber,
Standardeinstellung
Automatische Verhandlung mit angekündigter Geschwindigkeit
Enabled (Aktiviert)
–
–
–
–
qede-Treiber,
Standardeinstellung
Automatische Verhandlung mit angekündigter Geschwindigkeit
Enabled (Aktiviert)
Auto-Verhandlung mit RX- und
TX-Ankündigung
1500 (Bereich von 46 bis 9600)
1000
4078 (Bereich von 128 bis 8191)
16 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
Tabelle 3-3. Standardwerte für den Betrieb der Linux-Treiber (fortgesetzt)
Betrieb
Coalesce Rx Microseconds
(Rx-Verbindung Mikrosekunden)
Coalesce Tx Microseconds
(Tx-Verbindung Mikrosekunden)
TSO
qed-Treiber,
Standardeinstellung
–
–
–
qede-Treiber,
Standardeinstellung
24 (Bereich von 0 bis 255)
48
Enabled (Aktiviert)
Linux-Treibermeldungen
Führen Sie einen der folgenden Befehle aus, um die Meldungsdetailebene des
Linux-Treibers einzustellen:
ethtool -s <Schnittstelle> msglvl <Wert>
modprobe qede debug=<Wert>
Hierbei steht
<value>
für die Bits 0 bis 15. Dies sind die
Netzwerkstandardwerte für Linux; die Bits ab 16 sind treiberspezifisch.
Statistikdaten
Verwenden Sie das Ethtool-Dienstprogramm, um detaillierte Statistikdaten und
Konfigurationsinformationen anzuzeigen. Weitere Informationen erhalten Sie auf der Man-Page für ethtool.
Installieren der Windows-Treibersoftware
Weitere Informationen zu iWARP finden Sie unter Kapitel 7 iWARP-Konfiguration
.
Installieren der Windows-Treiber
Verwalten von Adaptereigenschaften
Einstellen der Optionen zum Strommanagement
Installieren der Windows-Treiber
Installieren Sie die Windows-Treibersoftware über das Dell Aktualisierungspaket
(DUP):
Ausführen des DUP über die GUI
17 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
Ausführen des DUP über die GUI
So führen Sie das DUP auf der Benutzeroberfläche aus:
1.
Doppelklicken Sie auf das Symbol für die Datei für das Dell
Aktualisierungspaket.
ANMERKUNG
Der tatsächliche Dateiname für das Dell Aktualisierungspaket kann auch anders lauten.
2.
Klicken Sie im Fenster des Dell Aktualisierungspakets (
Install
(Installieren).
Abbildung 3-1. Dell Aktualisierungspaket-Fenster
3.
Klicken Sie im Begrüßungsfenster des QLogic Super Installer — InstallShield
®
Next
(Weiter).
18 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
Abbildung 3-2. QLogic InstallShield Wizard: Begrüßungsfenster
19 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
4.
Füllen Sie im Lizenzvereinbarungs-Fenster des Assistenten Folgendes aus
(
a.
Lesen Sie die QLogic End User Software License Agreement
(Endbenutzer-Softwarelizenzvereinbarung).
b.
Um fortzufahren, wählen Sie
I accept the terms in the license agreement
(Ich akzeptiere die Bedingungen der Lizenzvereinbarung).
c.
Klicken Sie auf
Next
(Weiter).
Abbildung 3-3. QLogic InstallShield Wizard: Lizenzvereinbarungsfenster
20 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
5.
Schließen Sie das Fenster „Setup Type“ (Setup-Typ) ( Abbildung 3-4
) wie folgt ab: a.
Wählen Sie einen der folgenden Setup-Typen aus:
Klicken Sie auf
Complete
(Vollständig), um alle
Programmfunktionen zu installieren.
Klicken Sie auf
Custom
(Benutzerdefiniert), um die zu installierenden Programmfunktionen manuell auszuwählen.
b.
Klicken Sie auf
Next
(Weiter), um fortzufahren.
Falls Sie
Complete
(Vollständig) ausgewählt haben, fahren Sie direkt mit
fort.
Abbildung 3-4. InstallShield Wizard: Fenster „Setup Type“ (Setup-Typ)
6.
Wenn Sie in
Custom
(Benutzerdefiniert) ausgewählt haben, schließen Sie das Fenster „Custom Setup“ (Benutzerdefinierter Setup)
(
Abbildung 3-5 ) wie folgt aus:
a.
Wählen Sie die zu installierenden Funktionen aus. Alle Funktionen sind standardmäßig ausgewählt. Um eine zu installierende
Funktionseinstellung zu ändern, klicken Sie auf das Symbol daneben und führen dann eine der folgenden Optionen aus:
This feature will be installed on the local hard drive
(Diese
Funktion wird auf dem lokalen Festplattenlaufwerk installiert) –
Markiert die Funktion zur Installation, jedoch ohne ihre untergeordneten Funktionen.
21 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
This feature, and all subfeatures, will be installed on the local hard drive
(Diese Funktion und ihre untergeordneten
Funktionen werden auf dem lokalen Festplattenlaufwerk installiert) – Markiert die Funktion mit all ihren untergeordneten
Funktionen zur Installation.
This feature will not be available
(Diese Funktion steht nicht zur Verfügung) – Verhindert die Installation der Funktion.
b.
Klicken Sie auf
Next
(Weiter), um fortzufahren.
Abbildung 3-5. InstallShield Wizard: Fenster „Custom Setup“
(Benutzerdefinierter Setup)
7.
Klicken Sie im Fenster „Ready To Install“ (Bereit zum Installieren) des
InstallShield Wizard (
Install
(Installieren). Der
InstallShield Wizard installiert das Installationsprogramm für die QLogic
Adapter-Treiber und die Verwaltungssoftware.
22 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
Abbildung 3-6. InstallShield Wizard: Fenster „Ready to Install the Program“
(Bereit zum Installieren des Programms)
8.
Wenn die Installation abgeschlossen ist, zeigt der InstallShield-Assistent das
Dialogfeld „Completed“ (Abgeschlossen) an (
). Klicken Sie auf
Finish
(Fertigstellen), um das Installationsprogramm zu beenden.
Abbildung 3-7. InstallShield Wizard: Fenster „Completed“ (Abgeschlossen)
23 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
9.
Im Fenster des Dell Aktualisierungspakets (
Abbildung 3-8 ) weist die Meldung
„Update installer operation was successful“ (Aktualisierung des
Installationsprogramms war erfolgreich) auf den Abschluss des Vorgangs hin.
(Optional) Klicken Sie zum Öffnen der Protokolldatei auf
Installationsprotokoll anzeigen
. Die Protokolldatei zeigt den
Fortschritt der DUP-Installation, jede vorhergehend installierte Version, jede Fehlermeldung und andere Informationen über die Installation an.
Klicken Sie zum Schließen des Aktualisierungspaket-Fensters auf
SCHLIESSEN
.
Abbildung 3-8. Dell Aktualisierungspaket-Fenster
DUP-Installationsoptionen
Um das Verhalten der DUP-Installation anzupassen, verwenden Sie die folgenden
Befehlszeilenoptionen.
So extrahieren Sie nur die Treiberkomponenten in ein Verzeichnis:
/drivers=<Pfad>
ANMERKUNG
Dieser Befehl erfordert die Option
/s
.
So installieren oder aktualisieren Sie nur die Treiberkomponenten:
/driveronly
ANMERKUNG
Dieser Befehl erfordert die Option
/s
.
24 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
(Erweitert) Mit der Option
/passthrough
wird sämtlicher Text nach der
Option
/passthrough
direkt an die QLogic-Installationssoftware des DUP gesendet. In diesem Modus werden alle angegebenen GUIs unterdrückt, jedoch nicht zwangsweise die der QLogic-Software.
/passthrough
(Erweitert) So können Sie eine kodierte Beschreibung der von diesem DUP unterstützten Funktionen ausgeben:
/capabilities
ANMERKUNG
Dieser Befehl erfordert die Option
/s
.
DUP-Installationsbeispiele
Die folgenden Beispiele erläutern die Verwendung der Installationsoptionen.
So führen Sie eine Aktualisierung des Systems im Hintergrund durch:
<DUP_Dateiname>.exe /s
So extrahieren Sie den Aktualisierungsinhalt in das Verzeichnis
C:\mydir\
:
<DUP_Dateiname>.exe /s /e=C:\mydir
So extrahieren Sie die Treiberkomponenten in das Verzeichnis
C:\mydir\
:
<DUP_Dateiname>.exe /s /drivers=C:\mydir
So installieren Sie nur die Treiberkomponenten:
<DUP_Dateiname>.exe /s /driveronly
So wechseln Sie vom Standardprotokollspeicherort zu
C:\Mein Pfad mit
Leerzeichen\log.txt
:
<DUP_Dateiname>.exe /l="C:\my path with spaces\log.txt"
Entfernen der Windows-Treiber
Gehen Sie wie folgt vor, um die Windows-Treiber zu entfernen:
1.
Klicken Sie in der Systemsteuerung auf
Programs
(Programme) und dann auf
Programs and Features
(Programme und Funktionen).
2.
Wählen Sie in der Liste der Programme
QLogic FastLinQ Driver Installer
(QLogic FastLinQ-Treiberinstallationsprogramm) aus und klicken Sie anschließend auf
Uninstall
(Deinstallieren).
3.
Folgen Sie den Anweisungen zum Entfernen der Treiber.
25 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
Verwalten von Adaptereigenschaften
Gehen Sie wie folgt vor, um die Adapter der 41
xxx
-Serie-Eigenschaften anzuzeigen oder zu ändern:
1.
Wechseln Sie in die Systemsteuerung und klicken Sie auf
Device Manager
(Geräte-Manager).
2.
Klicken Sie in den Eigenschaften des ausgewählten Adapters auf die
Registerkarte
Erweitert
.
3.
Wählen Sie auf der Seite „Advanced“ (Erweitert) ( Abbildung 3-9 ) unter
Property
(Eigenschaft) ein Element aus und ändern Sie dann den
Wert
für dieses Element nach Bedarf.
Abbildung 3-9. Einstellen erweiterter Adaptereigenschaften
26 AH0054602-01 F
3–Treiberinstallation
Installieren der Windows-Treibersoftware
Einstellen der Optionen zum Strommanagement
Sie können die Optionen zum Strommanagement so einstellen, dass das
Betriebssystem den Controller abschalten kann, um Energie zu sparen, bzw. dass der Controller den Computer reaktivieren kann. Wenn das Gerät gerade beschäftigt ist (z. B. mit der Abwicklung einer Verbindung), schaltet das
Betriebssystem das Gerät nicht ab. Das Betriebssystem versucht nur dann, alle möglichen Geräte herunterzufahren, wenn der Computer in den Ruhezustand wechseln will. Wenn der Controller jederzeit eingeschaltet bleiben soll, aktivieren
Sie nicht das Kontrollkästchen
Allow the computer to turn off the device to save power
(Computer kann Gerät ausschalten, um Energie zu sparen)
).
Abbildung 3-10. Energieverwaltungsoptionen
ANMERKUNG
Die Seite „Power Management“ (Energieverwaltung) ist nur bei Servern verfügbar, die Energieverwaltung unterstützen.
Aktivieren Sie für keinen Adapter, der Mitglied eines Teams ist, das
Kontrollkästchen
Allow the computer to turn off this device to save power
(Computer kann Gerät ausschalten, um Energie zu sparen).
27 AH0054602-01 F
3–Treiberinstallation
Installieren der VMware-Treibersoftware
Installieren der VMware-Treibersoftware
In diesem Abschnitt wird der qedentv-VMware ESXi-Treiber für den Adapter der
41
xxx
-Serie beschrieben:
VMware-Treiber und Treiberpakete
Installieren der VMware-Treiber
Optionale Parameter des VMware-Treibers
Standardeinstellungen für VMware-Treiberparameter
VMware-Treiber und Treiberpakete
Tabelle 3-4 listet die VMware ESXi-Treiber für die Protokolle auf.
Tabelle 3-4. VMware-Treiber
VMware-Treiber Beschreibung
qedentv qedrntv qedf qedil
Nativer Netzwerktreiber
Nativer RDMA-Offload (RoCE und RoCEv2)-Treiber
a
NativFCoE-Offload-Treiber
VorgängeriSCSI-Offload-Treiber a
Der zertifizierte RoCE-Treiber ist in dieser Version nicht enthalten. Der zertifizierte Treiber ist möglicherweise in einer frühen Vorschau enthalten.
Die ESXi-Treiber sind als einzelne Treiberpakete enthalten und, wenn nicht anders angegeben, nicht als Pakete gebündelt.
ESXi-Versionen und die anwendbaren Treiberversionen auf.
Tabelle 3-5. ESXi-Treiberpakete nach Version
ESXi-Versiona
a
ESXi 6.5
b
Protokoll
NIC
FCoE iSCSI
RoCE
Treibername Treiberversion
qedentv qedf qedil qedrntv
3.0.7.5
1.2.24.0
1.0.19.0
3.0.7.5.1
28 AH0054602-01 F
3–Treiberinstallation
Installieren der VMware-Treibersoftware
Tabelle 3-5. ESXi-Treiberpakete nach Version (fortgesetzt)
ESXi-Versiona
a
Protokoll Treibername Treiberversion
ESXi 6.0u3
NIC
FCoE iSCSI qedentv qedf qedil
2.0.7.5
1.2.24.0
1.0.19.0
a
Weitere ESXi-Treiber werden möglicherweise nach der Veröffentlichung des
Benutzerhandbuchs verfügbar. Weitere Informationen finden Sie in den
Versionshinweisen.
b
Bei ESXi 6.5 wurden die NIC- und RoCE-Treiber zu einem Paket zusammengefasst und können mithilfe standardmäßiger ESXi-Installationsbefehle als ein Offline-Paket installiert werden. Der Dateiname des Pakets lautet
qedentv_3.0.7.5_qedrntv_3.0.7.5.1_signed_drivers.zip
. Es wird empfohlen, die folgende Installationsreihenfolge einzuhalten: zunächst die NIC- und RoCE-Treiber, gefolgt von den FCoE- und iSCSI-Treibern.
Installieren Sie einzelne Treiber über:
Standardbefehle für die ESXi-Paketinstallation (siehe Installieren der
)
Verfahren in den einzelnen Infodateien für die einzelnen Treiber
Verfahren im folgenden Artikel der VMware KB: https://kb.vmware.com/selfservice/microsites/search.do?language=en_US& cmd=displayKC&externalId=2137853
Es wird empfohlen, zunächst den NIC-Treiber zu installieren, gefolgt von den
Speichertreibern.
Installieren der VMware-Treiber
Sie können mit der Treiber-ZIP-Datei einen neuen Treiber installieren oder einen vorhandenen Treiber aktualisieren. Achten Sie darauf, den kompletten Treibersatz aus ein und derselben Treiber-ZIP-Datei zu installieren. Das Mischen von Treibern aus unterschiedlichen ZIP-Dateien führt zu Problemen.
Gehen Sie wie folgt vor, um den VMware-Treiber zu installieren:
1.
Laden Sie den VMware-Treiber für Adapter der 41
xxx
-Serie von der
VMware-Support-Seite herunter: www.vmware.com/support.html
2.
Schalten Sie den ESX-Host ein, und melden Sie sich mit
Administratorberechtigung an einem Konto an.
29 AH0054602-01 F
3–Treiberinstallation
Installieren der VMware-Treibersoftware
3.
Dekomprimieren Sie die Treiber-ZIP-Datei und extrahieren Sie die
.vib
-Datei.
4.
Verwenden Sie das Linux-SCP-Dienstprogramm zum Kopieren einer
.vib
-Datei von einem lokalen System in das Verzeichnis
/tmp
auf einem
ESX-Server mit der IP-Adresse 10.10.10.10. Führen Sie beispielsweise den folgenden Befehl aus:
#
scp qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib [email protected]:/tmp
Sie können die Datei an jedem Speicherort ablegen, auf den die
ESX-Konsolen-Shell Zugriff hat.
ANMERKUNG
Wenn Sie nicht über ein Linux-System verfügen, können Sie den vSphere-Datenspeicher-Browser verwenden, um Dateien auf den
Server hochzuladen.
5.
Setzen Sie den Host in den Wartungsmodus, indem Sie den folgenden
Befehl eingeben:
#esxcli --maintenance-mode
6.
Wählen Sie eine der folgenden Installationsoptionen aus:
Option 1:
Installieren Sie
.vib
-Datei direkt auf einen ESX-Server über die Befehlszeilenschnittstelle (CLI) oder den VMware Update Manager
(VUM):
Führen Sie für die Installation der
.vib
-Datei über die
Befehlszeilenschnittstelle (CLI) den folgenden Befehl aus. Achten
Sie darauf, den vollständigen Pfad der
.vib
-Datei anzugeben.
#
esxcli software vib install -v
/tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib
Weitere Informationen zur Installation der
.vib
-Datei über VUM finden Sie im folgenden Artikel in der Wissensdatenbank:
Updating an ESXi/ESX host using VMware vCenter Update
Manager 4.x and 5.x (1019545)
Option 2:
Installieren Sie alle einzelnen VIBs gleichzeitig, indem Sie den folgenden Befehl ausführen:
#
esxcli software vib install –d
/tmp/qedentv-bundle-2.0.3.zip
30 AH0054602-01 F
3–Treiberinstallation
Installieren der VMware-Treibersoftware
Gehen Sie wie folgt vor, um einen vorhandenen Treiber zu aktualisieren:
Führen Sie die folgenden Schritte für eine neue Installation aus, ersetzen Sie dabei allerdings den Befehl in der vorherigen Option 1 durch den folgenden Befehl:
#
esxcli software vib update -v
/tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib
Optionale Parameter des VMware-Treibers
Tabelle 3-6 beschreibt die optionalen Parameter, die als Befehlszeilenargumente
zum Befehl esxcfg-module
hinzugefügt werden können.
Tabelle 3-6. Optionale Parameter des VMware-Treibers
Parameter
hw_vlan num_queues multi_rx_filters disable_tpa max_vfs
Beschreibung
Aktiviert (
1
) oder deaktiviert (
0
) global das Einfügen und Entfernen des
Hardware-VLAN. Deaktivieren Sie diesen Parameter, wenn die obere
Schicht vollständig formatierte Pakete senden oder empfangen soll. hw_vlan=1
ist der Standardwert.
Gibt die Anzahl der Tx/Rx-Warteschlangenpaare an. num_queues
kann einen Wert zwischen
1–11
oder einen der folgenden Werte annehmen:
–1
ermöglicht dem Treiber die Bestimmung der optimalen Anzahl von
Warteschlangenpaaren (Standardeinstellung).
0
verwendet die Standardwarteschlange.
Für Konfigurationen mit mehreren Ports oder Funktionen können Sie mehrere kommagetrennte Werte angeben.
Gibt die Anzahl der RX-Filter pro RX-Warteschlange an, ohne
Standardwarteschlange. multi_rx_filters
kann
1–4
oder einer der folgenden Werte sein:
–1
verwendet die Standardanzahl an Rx-Filtern pro Warteschlange.
0
deaktiviert die Rx-Filter.
Aktiviert (
0
) oder deaktiviert (
1
) die TPA (LRO)-Funktion. disable_tpa=0 ist der Standardwert.
Gibt die Anzahl der virtuellen Funktionen (VFs) pro physischer Funktion (PF) an. max_vfs
kann
0
(deaktiviert) oder
64
VFs auf einem einzelnen Port
(aktiviert) sein. Die maximale Unterstützung von 64 VFs für ESXi beruht auf einer Beschränkung bei der BS-Ressourcenzuweisung.
31 AH0054602-01 F
3–Treiberinstallation
Installieren der VMware-Treibersoftware
Tabelle 3-6. Optionale Parameter des VMware-Treibers (fortgesetzt)
Parameter Beschreibung
RSS debug
Der RSS-Parameter legt die Anzahl der empfangsseitigen
Skalierungswarteschlangen fest, die vom Host oder dem virtuellen, erweiterbaren LAN (VxLAN)-Tunnel-Datenverkehr für eine PF verwendet werden.
RSS
kann den Wert
2
,
3
,
4
oder einen der folgenden Werte annehmen:
–1
verwendet die Standardanzahl an Warteschlangen.
0
oder
1
deaktiviert RSS-Warteschlangen.
Für Konfigurationen mit mehreren Ports oder Funktionen können Sie mehrere kommagetrennte Werte angeben.
Gibt die Datenebene an, die der Treiber in der vmkernel
-Protokolldatei erfasst. debug
kann die folgenden Werte annehmen (die angegebene
Reihenfolge entspricht einer ansteigenden Datenmenge):
0x80000000
gibt die Hinweisebene an.
0x40000000
gibt die Informationsebene (einschließlich der
Hinweisebene) an.
0x3FFFFFFF
gibt eine ausführliche Ebene für alle Treiberuntermodule
(einschließlich Informations- und Hinweisebene) an.
auto_fw_reset vxlan_filter_en
Aktiviert (
1
) oder deaktiviert (
0
) die Fähigkeit des Treibers zur automatischen Firmware-Wiederherstellung. Wenn dieser Parameter aktiviert ist, versucht der Treiber, nach bestimmten Ereignissen eine
Wiederherstellung durchzuführen, z. B. nach einem Übertragungs-Timeout,
Firmware-Durchsetzungen oder Adapterparitätsfehlern. Die
Standardeinstellung ist auto_fw_reset=1
.
Aktiviert (
1
) oder deaktiviert (
0
) die VXLAN-Filterung basierend auf der
äußeren MAC, der inneren MAC und dem VXLAN-Netzwerk (VNI) und ordnet den Datenverkehr einer bestimmten Warteschlange zu. Die
Standardeinstellung ist vxlan_filter_en=1
. Für Konfigurationen mit mehreren Ports oder Funktionen können Sie mehrere kommagetrennte
Werte angeben.
enable_vxlan_offld
Aktiviert (
1
) oder deaktiviert (
0
) den Prüfsummen-Offload für den getunnelten
VXLAN-Datenverkehr und die TCP-Segmentierungsabladefunktion (TSO).
Die Standardeinstellung ist enable_vxlan_offld=1
. Für Konfigurationen mit mehreren Ports oder Funktionen können Sie mehrere kommagetrennte
Werte angeben.
32 AH0054602-01 F
3–Treiberinstallation
Installieren der VMware-Treibersoftware
Standardeinstellungen für VMware-Treiberparameter
Tabelle 3-7 führt die Standardwerte der Parameter für VMware-Treiber auf.
Tabelle 3-7. Standardeinstellungen für VMware-Treiberparameter
Parameter
Geschwindigkeit
Flow Control
(Flusskontrolle)
MTU
Rx Ring Size
(Rx-Ringgröße)
Tx Ring Size
(Tx-Ringgröße)
MSI-X
Transmit Send Offload
(TSO)
Large Receive Offload
(LRO)
RSS
HW VLAN
Number of Queues
(Anzahl der Warteschlangen)
Wake on LAN (WoL)
Standardeinstellung
Die automatische Aushandlung wird für alle
Übertragungsraten angekündigt. Die
Geschwindigkeitsparameter müssen auf allen Ports identisch sein. Wenn „auto-negotiation“ (Automatische
Aushandlung) auf dem Gerät aktiviert ist, verwenden alle Geräteports die automatische Aushandlung.
Die automatische Aushandlung wird für RX und TX angekündigt.
1.500
(Bereich
46–9.600
)
8.192
(Bereich
128-8.192
)
8.192
(Bereich
128-8.192
)
Enabled
(Aktiviert)
Enabled
(Aktiviert)
Enabled
(Aktiviert)
Enabled
(vier RX-Warteschlangen)
Enabled
(Aktiviert)
Enabled
(acht RX/TX-Warteschlangenpaare)
Disabled
(Deaktiviert)
Entfernen des VMware-Treibers
Um die
.vib
-Datei (qedentv) zu entfernen, führen Sie den folgenden
Befehl aus:
#
esxcli software vib remove --vibname qedentv
33 AH0054602-01 F
3–Treiberinstallation
Installieren der VMware-Treibersoftware
Um den Treiber zu entfernen, führen Sie den folgenden Befehl aus:
#
vmkload_mod -u qedentv
Unterstützung von FCoE
Tabelle 3-8 beschreibt den Treiber, der im VMware-Software-Paket für die
Unterstützung der QLogic FCoE Converged Netzwerkschnittstellen-Controller
(C-NICs) enthalten ist. Die FCoE und DCB-Funktionen werden unter VMware
ESXi 5.0 und höheren Versionen unterstützt.
Tabelle 3-8. QLogic Adapter der 41xxx-Serie VMware-FCoE-Treiber
qedf
Treiber Beschreibung
Der QLogic VMware FCoE-Treiber ist ein Kernel-Modustreiber, mit dem eine Übersetzungsschicht zwischen dem VMware SCSI-Stapel und der QLogic FCoE-Firmware und -Hardware eingefügt wird.
iSCSI-Unterstützung
Tabelle 3-9 beschreibt den iSCSI-Treiber.
Tabelle 3-9. QLogic Adapter der 41xxx-Serie iSCSI-Treiber
qedil
Treiber Beschreibung
Der qedil-Treiber ist der QLogic VMware iSCSI HBA-Treiber. Ähnlich wie bei qedf ist qedil ein Treiber im Kernelmodus, der eine
Übersetzungsschicht zwischen dem VMware SCSI-Stapel und der
QLogic iSCSI-Firmware und -Hardware einfügt. qedil nutzt die
Dienste, die von der VMware-ISCSID-Infrastruktur für die
Sitzungsverwaltung und für IP-Dienste bereitgestellt werden.
34 AH0054602-01 F
3–Treiberinstallation
Installieren der VMware-Treibersoftware
35 AH0054602-01 F
4
Aktualisieren der Firmware
Dieses Kapitel bietet Informationen zum Aktualisieren der Firmware über das Dell
Aktualisierungspaket (DUP).
Das Firmware-DUP (Dell Update Package) ist ein reines Dienstprogramm zur
Aktualisierung des Flash-Speichers (es wird nicht für die Adapterkonfiguration verwendet). Doppelklicken Sie zum Ausführen des Firmware-DUP auf die ausführbare Datei. Alternativ können Sie das Firmware-DUP über die Befehlszeile mit verschiedenen unterstützten Befehlszeilenoptionen ausführen.
Ausführen des DUP durch Doppelklicken
„Ausführen des DUP über eine Befehlszeile“ auf Seite 39
„Ausführen des DUP über die BIN-Datei“ auf Seite 40 (nur Linux)
Ausführen des DUP durch Doppelklicken
Um das Firmware-DUP auszuführen, doppelklicken Sie auf die ausführbare Datei:
1.
Doppelklicken Sie auf das Symbol für die Datei des Dell
Firmware-Aktualisierungspakets.
Der Startbildschirm für das Dell Aktualisierungspaket wird angezeigt, wie in
dargestellt. Klicken Sie auf
Install
(Installieren), um fortzufahren.
36 AH0054602-01 F
4–Aktualisieren der Firmware
Ausführen des DUP durch Doppelklicken
Abbildung 4-1. Dell Aktualisierungspaket: Startbildschirm
2.
Befolgen Sie die Anweisungen auf dem Bildschirm. Wenn ein Dialogfeld mit einer Warnung angezeigt wird, klicken Sie auf
Yes
(Ja), um mit der
Installation fortzufahren.
Das Installationsprogramm weist darauf hin, dass die neue Firmware geladen wird, wie in
Abbildung 4-2. Dell Aktualisierungspaket: Laden der neuen Firmware
37 AH0054602-01 F
4–Aktualisieren der Firmware
Ausführen des DUP durch Doppelklicken
Nach Abschluss des Vorgangs zeigt das Installationsprogramm das
Ergebnis der Installation an, wie in
Abbildung 4-3. Dell Aktualisierungspaket: Installationsergebnisse
3.
Klicken Sie auf
Yes
(Ja), um das System neu zu starten.
4.
Klicken Sie auf
Finish
(Fertigstellen), um die Installation abzuschließen,
wie in Abbildung 4-4 dargestellt.
Abbildung 4-4. Dell Aktualisierungspaket: Installation fertigstellen
38 AH0054602-01 F
4–Aktualisieren der Firmware
Ausführen des DUP über eine Befehlszeile
Ausführen des DUP über eine Befehlszeile
Das Ausführen des Firmware-DUP über die Befehlszeile ohne Angabe weiterer
Optionen führt zu demselben Ergebnis wie das Doppelklicken auf das
DUP-Symbol. Der tatsächliche Dateiname für das DUP kann auch anders lauten.
Gehen Sie wie folgt vor, um das Firmware-DUP über eine Befehlszeile auszuführen:
Geben Sie den folgenden Befehl aus:
C:\>
Network_Firmware_2T12N_WN32_<Version>_X16.EXE
Abbildung 4-5 zeigt die Optionen, die Sie zum Anpassen der Installation über das
Dell Aktualisierungspaket verwenden können.
Abbildung 4-5. DUP-Befehlszeilenoptionen
39 AH0054602-01 F
4–Aktualisieren der Firmware
Ausführen des DUP über die BIN-Datei
Ausführen des DUP über die BIN-Datei
Das folgende Verfahren wird nur auf dem Linux-Betriebssystem unterstützt.
Gehen Sie wie folgt vor, um das DUP über die BIN-Datei zu aktualisieren:
1.
Kopieren Sie die Datei
Network_Firmware_NJCX1_LN_X.Y.Z.BIN
auf das zu testende System.
2.
Ändern Sie den Dateityp wie folgt in eine ausführbare Datei:
chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN
3.
Um den Aktualisierungsprozess zu starten, geben Sie den folgenden
Befehl ein:
./Network_Firmware_NJCX1_LN_X.Y.Z.BIN
4.
Starten Sie nach der Aktualisierung der Firmware das System neu.
Beispiel für eine SUT-Ausgabe während der DUP-Aktualisierung:
./Network_Firmware_NJCX1_LN_08.07.26.BIN
Collecting inventory...
Running validation...
BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
The version of this Update Package is the same as the currently installed version.
Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Package version: 08.07.26
Installed version: 08.07.26
BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
The version of this Update Package is the same as the currently installed version.
Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Package version: 08.07.26
Installed version: 08.07.26
Continue? Y/N:
Y
Y entered; update was forced by user
Executing update...
WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE
IS IN PROGRESS.
THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE!
...........................................................................
Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Update success.
40 AH0054602-01 F
4–Aktualisieren der Firmware
Ausführen des DUP über die BIN-Datei
Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Update success.
Would you like to reboot your system now?
Continue? Y/N:
Y
41 AH0054602-01 F
5
Adapterkonfiguration vor dem Start
Während des Host-Startvorgangs haben Sie die Möglichkeit, Adapterverwaltungs- aufgaben unter Verwendung der HII-Anwendung (Human Infrastructure Interface) anzuhalten und durchzuführen. Dazu gehören folgende Aufgaben:
„Anzeigen der Eigenschaften des Firmware-Abbilds“ auf Seite 47
„Konfigurieren der Parameter auf Geräteebene“ auf Seite 48
„Konfigurieren von NIC-Parametern“ auf Seite 49
„Konfigurieren des Data Center Bridging“ auf Seite 54
„Konfigurieren des FCoE-Startvorgangs“ auf Seite 55
„Konfigurieren des iSCSI-Startvorgangs“ auf Seite 57
„Konfigurieren von Partitionen“ auf Seite 61
ANMERKUNG
Die HII-Bildschirmaufnahmen in diesem Kapitel dienen lediglich der
Illustration. Die Bildschirme, die auf Ihrem System angezeigt werden, sehen möglicherweise anders aus.
42 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Erste Schritte
Erste Schritte
Gehen Sie wie folgt vor, um die HII-Anwendung zu starten:
1.
Öffnen Sie das System-Setup-Fenster für Ihre Plattform. Informationen zum
Starten des System-Setup-Programms finden Sie im Benutzerhandbuch zu
Ihrem System.
2.
Wählen Sie im Fenster „System Setup“ (Systemeinrichtung) (
)
Device Settings
(Geräteeinstellungen) und drücken Sie dann auf ENTER
(Eingabe).
Abbildung 5-1. Systemeinrichtung
43 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Erste Schritte
3.
Wählen Sie im Fenster „Device Settings“ (Geräteeinstellungen)
(
Abbildung 5-2 ) den Adapter der 41
xxx
-Serie-Port aus, den Sie konfigurieren möchten. Drücken Sie anschließend auf ENTER (Eingabe).
Abbildung 5-2. Systemeinrichtung: Geräteeinstellungen
Auf der Seite „Main Configuration“ (Hauptkonfiguration) (
) werden die Adapterverwaltungsoptionen dargestellt, mit denen Sie den
Partitionierungsmodus festlegen können.
Abbildung 5-3. Hauptkonfigurationsseite
44 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Erste Schritte
4.
Legen Sie unter
Device Level Configuration
(Konfiguration auf
Geräteebene) die Option für
Partitioning Mode
(Partitionierungsmodus) auf
NPAR
, um die Option
NIC Partitioning Configuration
(Konfiguration der
NIC-Partitionierung) zur Seite „Main Configuration“ (Hauptkonfiguration)
hinzuzufügen, wie unter Abbildung 5-4 dargestellt.
ANMERKUNG
NPAR ist auf Ports mit einer maximalen Geschwindigkeit von 1 G nicht verfügbar.
Abbildung 5-4. Hauptkonfiguration (Seite), Partitionierungsmodus auf
NPAR setzen
Auf der Seite „Main Configuration“ (Hauptkonfiguration) in
Abbildung 5-4 wird Folgendes angezeigt:
Firmware Image Properties
(Firmware-Abbildeigenschaften), (siehe
„Anzeigen der Eigenschaften des Firmware-Abbilds“ auf Seite 47 )
Device Level Configuration
(Konfiguration auf Geräteebene), (siehe
„Konfigurieren der Parameter auf Geräteebene“ auf Seite 48
)
NIC Configuration
(NIC-Konfiguration), (siehe
)
iSCSI Configuration
(iSCSI-Konfiguration) (wenn der iSCSI-Remote-Boot durch das Aktivierung des iSCSI-Offload im NPAR-Modus auf der dritten
Port-Partition zulässig ist) (siehe „Konfigurieren des iSCSI-Startvorgangs“ auf Seite 57
)
FCoEConfiguration
(FCoE-Konfiguration) (wenn der FCoE-Boot über SAN durch das Aktivierung des FCoE-Offload im NPAR-Modus auf der zweiten
Port-Partition zulässig ist) (siehe „Konfigurieren des FCoE-Startvorgangs“ auf Seite 55
)
Data Center Bridging (DCB) Settings (DCB-Einstellungen) (siehe
„Konfigurieren des Data Center Bridging“ auf Seite 54
)
45 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Erste Schritte
NIC Partitioning Configuration
(Konfiguration der NIC-Partitionierung)
(falls
NPAR
auf der Seite „Device Level Configuration“ (Konfiguration auf
Geräteebene) ausgewählt wird) (siehe „Konfigurieren von Partitionen“ auf
Zusätzlich werden auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Adaptereigenschaften angezeigt, wie in
Adaptereigenschaft
Device Name
(Gerätename)
Chip Type (Chip-Typ)
PCI Device ID
(PCI-Geräte-ID)
PCI Address
(PCI-Adresse)
Blink LEDs
(LED-Blinkfunktion)
Link Status
(Verbindungsstatus)
MAC Address
(MAC-Adresse)
Virtual MAC Address
(Virtuelle MAC-Adresse) iSCSI MAC-Adresse
a
Tabelle 5-1. Adaptereigenschaften
Beschreibung
Der vom Werk zugewiesene Gerätename.
ASIC-Version
Eindeutige, herstellerspezifische PCI-Geräte-ID
PCI-Geräteadresse im Busgerät-Funktionsformat.
Benutzerdefinierte Blinkhäufigkeit für die Port-LED.
Der externe Verbindungsstatus.
Vom Hersteller zugewiesene, dauerhafte
Geräte-MAC-Adresse.
Benutzerdefinierte Geräte-MAC-Adresse
Vom Hersteller zugewiesene, dauerhafte iSCSI-Offload-MAC-Adresse.
Benutzerdefinierte Geräte-iSCSI-Offload-MAC-Adresse iSCSI Virtual MAC
Address (Virtuelle iSCSI-MAC-Adresse)
FCoE MAC Address
(FCoE-MAC-Adresse)
b
FCoE Virtual MAC
Address (Virtuelle
FCoE-MAC-Adresse)
FCoE WWPN
Vom Hersteller zugewiesene, dauerhafte
FCoE-Offload-MAC-Adresse.
Benutzerdefinierte Geräte-FCoE-Offload-MAC-Adresse
Vom Hersteller zugewiesener dauerhafter
Geräte-FCoE-Offload-WWPN (World-Wide-Port-Name)
46 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Anzeigen der Eigenschaften des Firmware-Abbilds
Tabelle 5-1. Adaptereigenschaften (fortgesetzt)
Adaptereigenschaft Beschreibung
FCoE Virtual WWPN
(Virtueller FCoE-WWPN)
Benutzerdefinierter Geräte-FCoE-Offload-WWPN
FCoE WWNN
Vom Hersteller zugewiesener dauerhafter
Geräte-FCoE-Offload-WWNN (World-Wide-Knotenname)
Benutzerdefinierter Geräte-FCoE-Offload-WWNN FCoE Virtual WWNN
(Virtueller FCoE-WWNN)
a
Diese Eigenschaft wird nur angezeigt, wenn
iSCSI Offload
(iSCSI-Offload) auf der Seite „NIC
Partitioning Configuration“ (Konfiguration der NIC-Partitionierung) aktiviert ist.
b
Diese Eigenschaft wird nur angezeigt, wenn
FCoE Offload
(FCoE-Offload) auf der Seite „NIC
Partitioning Configuration“ (Konfiguration der NIC-Partitionierung) aktiviert ist.
Anzeigen der Eigenschaften des
Firmware-Abbilds
Um die Eigenschaften des Firmware-Abbilds anzuzeigen, wählen Sie
Firmware
Image Properties
(Firmware-Abbild-Eigenschaften) auf der Seite „Main
Configuration“ (Hauptkonfiguration) aus und drücken dann auf die EINGABETASTE.
Die Seite „Firmware Image Properties“ (Firmware-Abbild-Eigenschaften)
) enthält die folgenden schreibgeschützten Daten:
Family Firmware Version
(Familien-Firmware-Version) ist die
Mehrstart-Abbild-Version, die aus mehreren
Firmware-Komponenten-Abbildern besteht.
MBI Version
(MBI-Version) ist die gebündelte Cavium QLogic-Abbildversion, die auf dem Gerät aktiv ist.
Controller BIOS Version
(Controller-BIOS-Version) ist die
Verwaltungs-Firmware-Version.
EFI Driver Version
(EFI-Treiberversion) ist die Treiberversion für die erweiterbare Firmware-Schnittstelle.
L2B Firmware Version
(L2B-Firmware-Version) ist die
NIC-Offload-Firmware-Version für den Start.
47 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren der Parameter auf Geräteebene
Abbildung 5-5. Firmware-Abbild-Eigenschaften
Konfigurieren der Parameter auf Geräteebene
ANMERKUNG
Die physischen iSCSI-Funktionen (PFs) werden als Aufzählung dargestellt, wenn die iSCSI-Offload-Funktion nur im NPAR-Modus aktiviert ist. Die
FCoE-PFs werden als Aufzählung dargestellt, wenn die
FCoE-Offload-Funktion nur im NPAR-Modus aktiviert ist. Nicht alle
Adaptermodelle unterstützen iSCSI-Offload und FCoE-Offload. Pro Port kann nur ein Offload und dies nur im NPAR-Modus aktiviert werden.
Die Konfiguration auf Geräteebene umfasst die folgenden Parameter:
Virtualisierungsmodus
NPAREP-Modus
So konfigurieren Sie die Parameter auf Geräteebene:
1.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Option
Device Level Configuration
(Konfiguration auf Geräteebene) (siehe
) aus und drücken dann auf die EINGABETASTE.
2.
Wählen Sie auf der Seite
Device Level Configuration
(Konfiguration auf
Geräteebene) Werte für die Parameter auf Geräteebene aus (siehe
).
Abbildung 5-6. Konfiguration auf Geräteebene
48 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von NIC-Parametern
ANMERKUNG
Die Adapter QL41264HMCU-DE (Teilenummer 5V6Y4) und
QL41264HMRJ-DE (Teilenummer 0D1WT) zeigen Support für NPAR,
SR-IOV und NPAR-EP in der Konfiguration auf Geräteebene, obwohl diese Funktionen auf den 1-Gbps-Ports 3 und 4 nicht unterstützt werden.
3.
Wählen Sie für
Virtualization Mode
(Virtualisierungsmodus) einen der folgenden Modi aus, der auf alle Adapter-Ports angewendet werden kann:
None
(„Kein“, Standardwert) legt fest, dass kein Virtualisierungsmodus aktiviert wurde.
NPAR
versetzt den Adapter in den Switch-unabhängigen
NIC-Partitionierungsmodus.
SR-IOV
versetzt den Adapter in den SR-IOV-Modus.
NPar + SR-IOV
versetzt den Adapter in den Modus „SR-IOV over
NPAR“ (SR-IOV über NPAR).
4.
NParEP Mode
(NParEP-Modus) konfiguriert die maximale Anzahl an
Partitionen pro Adapter. Dieser Parameter wird angezeigt, wenn Sie entweder
NPAR
oder
NPar + SR-IOV
als
Virtualization Mode
(Virtualisierungsmodus) in Schritt 2 auswählen.
Mit der Option
Enabled
(Aktiviert) können Sie bis zu 16 Partitionen pro
Adapter konfigurieren.
Mit der Option
Disabled
(Deaktiviert) können Sie bis zu 8 Partitionen pro Adapter konfigurieren.
5.
Klicken Sie auf
Back
(Zurück).
6.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
Konfigurieren von NIC-Parametern
Die NIC-Konfiguration umfasst das Einstellen der folgenden Parameter:
Übertragungsrate
NIC- und RDMA-Modus
RDMA Protocol Support
(RDMA-Protokoll-Unterstützung)
Boot-Modus
FEC-Modus
Energieeffizientes Ethernet
Virtueller LAN-Modus
Virtuelle LAN-ID
49 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von NIC-Parametern
So konfigurieren Sie NIC-Parameter:
1.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Option
NIC Configuration
(NIC-Konfiguration) ( Abbildung 5-3 auf Seite 44
) und drücken dann auf
Finish
(Fertigstellen).
zeigt die Seite „NIC Configuration“ (NIC-Konfiguration).
Abbildung 5-7. NIC-Konfiguration
2.
Wählen Sie eine der folgenden Optionen für
Link Speed
(Verbindungsgeschwindigkeit) für den ausgewählten Port. Nicht alle
Geschwindigkeitsoptionen sind auf allen Adaptern verfügbar.
Auto Negotiated
(Automatisch verhandelt) aktiviert den Modus „Auto
Negotiation“ (Auto-Verhandlung) auf dem Port. Die Modusauswahl
„FEC“ ist für diese Geschwindigkeitsoption nicht verfügbar.
1 Gbps
aktiviert den festen 1 GbE-Geschwindigkeitsmodus auf dem
Port. Dieser Modus ist ausschließlich für 1GbE-Schnittstellen bestimmt und sollte nicht für Adapterschnittstellen konfiguriert werden, die bei anderen Geschwindigkeiten betrieben werden. Die Modusauswahl
„FEC“ ist für diese Geschwindigkeitsoption nicht verfügbar. Diese
Option ist nicht auf allen Adaptern verfügbar.
10 Gbps
aktiviert den festen 10 GbE-Geschwindigkeitsmodus auf dem
Port. Diese Option ist nicht auf allen Adaptern verfügbar.
25 Gbps
aktiviert den festen 25 GbE-Geschwindigkeitsmodus auf dem
Port. Diese Option ist nicht auf allen Adaptern verfügbar.
50 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von NIC-Parametern
SmartAN
(Standardwert) aktiviert den FastLinQ
SmartAN
™
-Verbindungsgeschwindigkeitsmodus auf dem Port. Für diese Geschwindigkeitsoption ist keine FEC-Modusauswahl verfügbar.
Die Einstellung
SmartAN
durchläuft alle möglichen
Verbindungsgeschwindigkeiten und FEC-Modi, bis eine Verbindung aufgebaut wurde. Dieser Modus ist ausschließlich für
25G-Schnittstellen bestimmt. Wenn Sie SmartAN für eine
10GB-Schnittstelle konfigurieren, wird das System Einstellungen für eine 10 G-Schnittstelle anwenden. Dieser Modus ist nicht für alle
Adapter verfügbar.
3.
Beim
Modus NIC + RDMA
wählen Sie entweder
Enabled
(Aktiviert) oder
Disabled
(Deaktiviert) für RDMA auf dem Port aus. Diese Einstellung gilt für alle Partitionen für den Port, falls der NPAR-Modus aktiv ist.
4.
FEC Mode
(FEC-Modus) wird angezeigt, wenn der Modus mit einer festen
Geschwindigkeit von
25 Gbps
als
Link Speed
(Verbindungsgeschwindigkeit) in
Schritt 2 ausgewählt ist. Wählen Sie als
FEC Mode
(FEC-Modus) eine der folgenden Optionen aus. Nicht alle FEC-Modi sind auf allen Adaptern verfügbar.
None
(Kein) deaktiviert alle FEC-Modi.
Fire Code
(Fire-Code) aktiviert den Fire Code (BASE-R) FEC-Modus.
Reed Solomon
(Reed-Solomon-Code) aktiviert den
Reed-Solomon-FEC-Modus.
Auto
(Automatisch) aktiviert den Port zum Durchlaufen der FEC-Modi
None
(Kein),
Fire Code
(Fire-Code) und
Reed Solomon
(Reed-Solomon, bei dieser Verbindungsgeschwindigkeit) nach einem
Rundlauf-Verfahren, bis eine Verbindung aufgebaut wurde.
5.
Die Einstellung
RDMA Protocol Support
(RDMA-Protokoll-Unterstützung) gilt für alle Partitionen des Ports, wenn es sich um den NPAR-Modus handelt. Diese Einstellung wird angezeigt, wenn der
Modus NIC + RDMA
in
Enabled
(Aktiviert) gesetzt ist. Die Optionen für
RDMA
Protocol Support
(RDMA-Protokoll-Unterstützung) umfassen Folgendes:
RoCE
aktiviert den RoCE-Modus auf diesem Port.
iWARP
aktiviert den iWARP-Modus auf diesem Port.
iWARP + RoCE
aktivieren die iWARP- und RoCE-Modi auf diesem
Port. Dies ist die Standardeinstellung. Für diese Option sind in Linux weitere Konfigurationsschritte erforderlich. Siehe
„Konfigurieren von iWARP und RoCE“ auf Seite 106
.
6.
Wählen Sie für
Boot Mode
(Boot-Modus) einen der folgenden Werte aus:
PXE
aktiviert den PXE-Boot.
51 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von NIC-Parametern
FCoE
aktiviert den FCoE-Boot über SAN über den
Hardware-Offload-Pfad. Der Modus
FCoE
ist nur verfügbar, wenn die
Option
FCoE Offload
(FCoE-Offload) auf der zweiten Partition im
NPAR-Modus aktiviert ist (siehe
„Konfigurieren von Partitionen“ auf
).
iSCSI
aktiviert den iSCSI-Remote-Boot über den
Hardware-Offload-Pfad. Der Modus
iSCSI
ist nur verfügbar, wenn die
Option
iSCSI Offload
(iSCSI-Offload) auf der dritten Partition im
NPAR-Modus aktiviert ist (siehe
„Konfigurieren von Partitionen“ auf
).
Disabled
(Deaktiviert) verhindert, dass dieser Port als
Remote-Boot-Quelle verwendet wird.
7.
Der Parameter
Energy Efficient Ethernet
(Energieeffizientes Ethernet, EEE) ist nur auf 100BASE-T- oder 10GBASE-T RJ45-Schnittstellenadaptern sichtbar. Wählen Sie aus den folgenden EEE-Optionen aus:
Disabled
(Deaktiviert) deaktiviert EEE auf diesem Port.
Optimal Power and Performance
(Optimale Energieversorgung und
Leistung) aktiviert EEE im optimalen Energieversorgungs- und
Leistungsmodus auf diesem Port.
Maximum Power Savings
(Maximale Energieeinsparungen) aktiviert
EEE im maximalen Energiesparmodus auf diesem Port.
Maximum Performance
(Maximale Leistung) aktiviert EEE im maximalen Leistungsmodus auf diesem Port.
8.
Der Parameter
Virtual LAN Mode
(Virtueller LAN-Modus) gilt für den gesamten Port, wenn er sich im PXE-Remote-Installationsmodus befindet.
Er wird nicht aufrecht erhalten, nachdem eine PXE-Remote-Installation abgeschlossen ist. Wählen Sie aus den folgenden VLAN-Optionen aus:
Enabled
(Aktiviert) aktiviert den VLAN-Modus auf diesem Port für den
PXE-Remote-Installationsmodus.
Disabled
(Deaktiviert) deaktiviert den VLAN-Modus auf diesem Port.
9.
Der Parameter
Virtual LAN ID
(Virtuelle LAN-ID) definiert die VLAN-Tag-ID, die auf diesem Port für den PXE-Remote-Installationsmodus verwendet werden soll. Diese Einstellung gilt nur, wenn
Virtual LAN Mode
(Virtueller
LAN-Modus) im vorherigen Schritt aktiviert wurde.
10. Klicken Sie auf
Back
(Zurück).
11.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
52 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von NIC-Parametern
So konfigurieren Sie den Port zur Verwendung von RDMA:
ANMERKUNG
Führen Sie die folgenden Schritte aus, um RDMA auf allen Partitionen eines
Ports im NPAR-Modus zu aktivieren.
1.
Setzen Sie
NIC + RDMA Mode
(NIC- + RDMA-Modus) auf
Enabled
(Aktiviert).
2.
Klicken Sie auf
Back
(Zurück).
3.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
So konfigurieren Sie den Boot-Modus des Ports:
1.
Wählen Sie bei einer UEFI PXE-Remote-Installation
PXE
als
Boot Mode
(Boot-Modus) aus.
2.
Klicken Sie auf
Back
(Zurück).
3.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
So konfigurieren Sie die PXE-Remote-Installation des Ports zur Verwendung eines VLAN:
ANMERKUNG
Dieses VLAN wird nicht aufrecht erhalten, nachdem die
PXE-Remote-Installation abgeschlossen ist.
1.
Setzen Sie das Feld
Virtual LAN Mode
(Modus für virtuelles LAN) auf
Enabled
(Aktiviert).
2.
Geben Sie im Feld
Virtual LAN ID
(Virtuelle LAN-ID) die zu verwendende
Nummer ein.
3.
Klicken Sie auf
Back
(Zurück).
4.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
53 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren des Data Center Bridging
Konfigurieren des Data Center Bridging
Die Einstellungen für Data Center Bridging (DCB) umfassen das DCBX-Protokoll und die RoCE-Priorität.
So konfigurieren Sie die DCB-Einstellungen:
1.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration,
Data Center Bridging (DCB) Settings
(DCB-Einstellungen) aus und klicken Sie anschließend auf
Finish
(Fertigstellen).
2.
Wählen Sie auf der Seite „Data Center Bridging (DCB) Settings“
(DBC-Einstellungen, Abbildung 5-8
) die entsprechende Option
DCBX
Protocol
(DCBX-Protokoll) aus:
Disabled
(Deaktiviert) deaktiviert DCBX auf diesem Port.
CEE
aktiviert den DCBX-Modus für das Legacy-CEE (Converged
Enhanced Ethernet)-Protokoll auf diesem Port.
IEEE
aktiviert das IEEE-DCBX-Protokoll auf diesem Port.
Dynamic
(Dynamisch) aktiviert die dynamische Anwendung des CEE- oder IEEE-Protokolls für den Abgleich mit dem angeschlossenen
Verbindungspartner.
3.
Geben Sie im Fenster „Data Center Bridging (DCB) Settings“
(DCB-Einstellungen) in das Feld
RoCE v1 Priority
(RoCE v1-Priorität) einen
Wert zwischen
0-7
ein. Diese Einstellung zeigt die Klassenprioritätsnummer für den DCB-Datenverkehr an, die für den RoCE-Datenverkehr verwendet wird. Sie muss mit der Zahl übereinstimmen, die durch das DCB-aktivierte
Switching-Netzwerk für den RoCE-Datenverkehr verwendet wird.
0
steht für die gewöhnliche Prioritätsnummer, die durch die verlustbehaftete Standard- oder die allgemeine Datenverkehrsklasse verwendet wird.
3
steht für die Prioritätsnummer, die durch den verlustfreien
FCoE-Datenverkehr verwendet wird.
4
steht für die Prioritätsnummer, die durch den verlustfreien iSCSI-TLV over DCB-Datenverkehr verwendet wird.
1
,
2
,
5
,
6
und
7
stehen für DCB-Datenverkehrsklassenprioritätsnummern, die für die Verwendung von RoCE verfügbar sind. Folgen Sie den entsprechenden Anweisungen zum Einrichten von BS-RoCE, um diese
RoCE-Option zu verwenden.
54 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren des FCoE-Startvorgangs
Abbildung 5-8. Systemeinrichtung: DCB-Einstellungen
4.
Klicken Sie auf
Back
(Zurück).
5.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
ANMERKUNG
Wenn DCBX aktiviert ist, sendet der Adapter regelmäßig
Verbindungsschichterkennungsprotokoll-Pakete, also so genannte
LLDP-Pakete, mit einer speziellen Unicastadresse. Diese Unicastadresse dient als Quell-MAC-Adresse. Diese LLDP-MAC-Adresse unterscheidet sich von der werkseitig zugewiesenen Adapter-Ethernet-MAC-Adresse. Wenn
Sie sich die MAC-Adresstabelle für den Switch-Port, der mit dem Adapter verbunden ist, etwas genauer anschauen, werden Sie sehen, dass zwei
MAC-Adressen aufgeführt sind: eine für LLDP-Pakete und eine für die
Adapter-Ethernet-Schnittstelle.
Konfigurieren des FCoE-Startvorgangs
ANMERKUNG
Das Menü „FCoE Boot Configuration“ (FCoE-Boot-Konfiguration) wird nur angezeigt, wenn der
Modus FCoE Offload
(FCoE-Offload) auf der zweiten
Partition im NPAR-Modus aktiviert ist (siehe Abbildung 5-18 auf Seite 66 ).
Im Nicht-NPAR-Modus wird dieses Menü nicht angezeigt.
So konfigurieren Sie die FCoE-Start-Konfigurationsparameter:
1.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Option
FCoE Configuration
(FCoE-Konfiguration) und wählen Sie dann eine der folgenden Optionen aus:
FCoE General Parameters
(Allgemeine FCoE-Parameter)
)
FCoE Target Configuration
(FCoE-Zielkonfiguration)
)
55 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren des FCoE-Startvorgangs
2.
Drücken Sie ENTER (Eingabe).
3.
Wählen Sie Werte für die allgemeinen FCoE- oder die
FCoE-Ziel-Konfigurationsparameter aus.
Abbildung 5-9. Allgemeine FCoE-Parameter
Abbildung 5-10. FCoE-Zielkonfiguration
4.
Klicken Sie auf
Back
(Zurück).
5.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
56 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren des iSCSI-Startvorgangs
Konfigurieren des iSCSI-Startvorgangs
ANMERKUNG
Das Menü „iSCSI Boot Configuration“ (iSCSI-Boot-Konfiguration) wird nur angezeigt, wenn der Modus
iSCSI Offload
(iSCSI-Offload) auf der dritten
Partition im NPAR-Modus aktiviert ist (siehe Abbildung 5-19 auf Seite 66 ).
Im Nicht-NPAR-Modus wird dieses Menü nicht angezeigt.
So konfigurieren Sie die iSCSI-Start-Konfigurationsparameter:
1.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Option
iSCSI Boot Configuration Menu
(iSCSI-Start-Konfigurationsmenü) aus und wählen Sie dann eine der folgenden Optionen aus:
iSCSI General Configuration
(Allgemeine iSCSI-Konfiguration)
iSCSI Initiator Configuration
(iSCSI-Initiatorkonfiguration)
iSCSI First Target Configuration
(Erste iSCSI-Zielkonfiguration)
iSCSI Second Target Configuration
(Zweite iSCSI-Zielkonfiguration)
2.
Drücken Sie ENTER (Eingabe).
3.
Wählen Sie Werte für die entsprechenden iSCSI-Konfigurationsparameter aus:
iSCSI General Parameters
(Allgemeine iSCSI-Parameter)
( Abbildung 5-11 auf Seite 59 )
TCP/IP Parameters Via DHCP (TCP/IP-Parameter über DHCP)
iSCSI Parameters Via DHCP (iSCSI-Parameter über DHCP)
CHAP-Authentifizierung
Gegenseitige CHAP-Authentifizierung
IP-Version
ARP Redirect (ARP-Umleitung)
DHCP Request Timeout (Zeitüberschreitung der
DHCP-Anforderung)
Target Login Timeout (Zielanmeldezeitüberschreitung)
DHCP Vendor ID
iSCSI Initiator Parameters
(iSCSI-Initiatorparameter)
( Abbildung 5-12 auf Seite 60 )
IPv4-Adresse
IPv4-Subnetzmaske
IPv4 Standard-Gateway
Primärer IPv4-DNS
Sekundärer IPv4-DNS
VLAN-ID
iSCSI-Name:
CHAP ID (CHAP-ID)
57 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren des iSCSI-Startvorgangs
CHAP Secret (CHAP-Geheimschlüssel)
iSCSI First Target Parameters
(Erste iSCSI-Zielparameter)
( Abbildung 5-13 auf Seite 60 )
Connect (Verbinden).
IPv4-Adresse
TCP-Port
Boot-LUN
iSCSI-Name:
CHAP ID (CHAP-ID)
CHAP Secret (CHAP-Geheimschlüssel)
iSCSI Second Target Parameters
(Zweite iSCSI-Zielparameter)
( Abbildung 5-14 auf Seite 61 )
Connect (Verbinden).
IPv4-Adresse
TCP-Port
Boot-LUN
iSCSI-Name:
CHAP ID (CHAP-ID)
CHAP Secret (CHAP-Geheimschlüssel)
4.
Klicken Sie auf
Back
(Zurück).
58 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren des iSCSI-Startvorgangs
5.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
Abbildung 5-11. Allgemeine iSCSI-Parameter
59 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren des iSCSI-Startvorgangs
Abbildung 5-12. iSCSI-Initiator-Konfigurationsparameter
Abbildung 5-13. Erste iSCSI-Zielparameter
60 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von Partitionen
Abbildung 5-14. Zweite iSCSI-Zielparameter
Konfigurieren von Partitionen
Sie können Bandbreitenbereiche für jede Partition auf dem Adapter konfigurieren.
Spezifische Informationen zur Partitionskonfiguration auf VMware ESXi 6.0/6.5 finden Sie unter
Partitionieren für VMware ESXi 6.0 und ESXi 6.5
.
So konfigurieren Sie die maximalen und minimalen
Bandbreitenzuordnungen:
1.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Option
NIC Partitioning Configuration
(Konfiguration der
NIC-Partitionierung) aus und drücken dann auf die EINGABETASTE.
2.
Wählen Sie auf der Seite „Partitions Configuration“ (Partitionskonfiguration)
(
Global Bandwidth Allocation
(Globale
Bandbreitenzuordnung) aus.
61 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von Partitionen
Abbildung 5-15. Konfiguration der NIC-Partitionierung, Globale
Bandbreitenzuordnung
3.
Klicken Sie auf der Seite „Global Bandwidth Allocation“ (Globale
Bandbreitenzuordnung) (
Abbildung 5-16 ) für jede Partition, deren
Bandbreite Sie zuordnen möchten, in das Feld für die minimale und maximale Übertragungsbandbreite. Es gibt acht Partitionen pro Port im
Dual-Port-Modus.
62 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von Partitionen
Abbildung 5-16. Seite für globale Bandbreitenzuordnung
Partition
n
Minimum TX Bandwidth
(Mindestbandbreite der Partition n für die Übertragung (TX)) ist die Mindestbandbreite der ausgewählten
Partition für die Übertragung, angegeben als Prozentsatz der maximalen
Verbindungsgeschwindigkeit des physischen Ports. Gültige Werte reichen von
0
bis
100
. Wenn der DCBX ETS-Modus aktiviert ist, wird der
Wert der DCBX ETS-Mindestbandbreite je Datenverkehrsklasse gleichzeitig mit dem Wert der TX-Mindestbandbreite der Partition verwendet. Die Summe aller TX-Mindestbandbreitenwerte aller
Partitionen auf einem einzelnen Port muss entweder 100 betragen oder alle Werte müssen null sein.
Wenn man die Werte für die TX-Bandbreite vollständig auf null setzt, ist dies vergleichbar damit, wenn man die verfügbare Bandbreite auf jede aktive Partition gleichmäßig verteilt. Die Bandbreite wird jedoch dynamisch allen aktiv sendenden Partitionen zugeordnet. Ein Null-Wert
(wenn mindestens einer der anderen Werte auf einen Nicht-Null-Wert gesetzt ist) ordnet mindestens ein Prozent dieser Partition zu, wenn die
TX-Bandbreite aufgrund von Datenverkehrsstau (von allen Partitionen) eingeschränkt ist.
Partition
n
Maximum TX Bandwidth
(Maximalbandbreite der Partition n für die Übertragung (TX)) ist die Maximalbandbreite der ausgewählten
Partition für die Übertragung, angegeben als Prozentsatz der maximalen
Verbindungsgeschwindigkeit des physischen Ports. Die gültigen Werte reichen von
1
-
100
. Der maximale TX-Bandbreitenwert pro Partition gilt unabhängig von der Einstellung des DCBX ETS-Modus.
63 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von Partitionen
Geben Sie einen Wert in jedes ausgewählte Feld ein, und klicken Sie anschließend auf
Back
(Zurück).
4.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
So konfigurieren Sie Partitionen:
1.
Um eine spezifische Partitionskonfiguration zu untersuchen, wählen Sie auf der Seite „NIC Partitioning Configuration“ (Konfiguration der
NIC-Partitionierung) ( Abbildung 5-15 auf Seite 62 ) die Option
Partition
n
Configuration
(Konfiguration der Partition n) aus. Wenn „NParEP“ nicht aktiviert ist, sind pro Port nur vier Partitionen verfügbar.
2.
Um die erste Partition zu konfigurieren, wählen Sie
Partition 1 Configuration
(Konfiguration der Partition 1) aus, um die Seite „Partition 1 Configuration“
(Konfiguration der Partition 1,
Abbildung 5-17 ) zu öffnen, auf der die
folgenden Parameter angezeigt werden:
NIC Mode
(NIC-Modus, immer aktiviert)
PCI Device ID
(PCI-Geräte-ID)
PCI
(bus)
Address
(PCI-Bus-Adresse)
MAC-Adresse
Virtual MAC Address
(Virtuelle MAC-Adresse)
Wenn „NParEP“ nicht aktiviert ist, sind pro Port nur vier Partitionen verfügbar.
Bei nicht-offload-fähigen Adaptern werden die Optionen
FCoE Mode
(FCoE-Modus) und
iSCSI Mode
(iSCSI-Modus) sowie die zugehörigen
Informationen nicht angezeigt.
Abbildung 5-17. Konfiguration der Partition 1
64 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von Partitionen
3.
Um die erste Partition zu konfigurieren, wählen Sie
Partition 2 Configuration
(Konfiguration der Partition 2) aus, um die Seite „Partition 2 Configuration“
(Konfiguration der Partition 2) zu öffnen. Wenn „FCoE Offload“
(FCoE-Offload) vorhanden ist, zeigt die Option „Partition 2 Configuration“
(Konfiguration der Partition 2,
Abbildung 5-18 ) die folgenden Parameter an:
NIC Mode
(NIC-Modus) aktiviert oder deaktiviert die
L2-Ethernet-NIC-Personalität auf Partitionen ab Partition 2. Um eine der verbleibenden Partitionen zu deaktivieren, setzen Sie
NIC Mode
(NIC-Modus) auf
Disabled
(Deaktiviert). Um die Offload-fähigen
Partitionen zu deaktivieren, deaktivieren Sie die Option
NIC Mode
(NIC-Modus) und den entsprechenden Offload-Modus.
Die Option
FCoE Mode
(FCoE-Modus) aktiviert oder deaktiviert die
FCoE-Offload-Personalität auf der zweiten Partition. Wenn Sie diesen
Modus auf der zweiten Partition aktivieren, müssen Sie die Option
NIC
Mode
(NIC-Modus) deaktivieren. Da nur ein Offload pro Port verfügbar ist, kann, wenn „FCoE-Offload“ auf der zweiten Partition des Ports aktiviert ist, „iSCSI-Offload“ auf der dritten Partition des gleichen Ports im NPAR-Modus nicht aktiviert werden. Die Option
FCoE Mode
(FCoE-Modus) wird nicht auf allen Adaptern unterstützt.
Die Option
FCoE Mode
(FCoE-Modus) aktiviert oder deaktiviert die iSCSI-Offload-Personalität auf der dritten Partition. Wenn Sie diesen
Modus auf der dritten Partition aktivieren, müssen Sie die Option
NIC
Mode
(NIC-Modus) deaktivieren. Da nur ein Offload pro Port verfügbar ist, kann, wenn „iSCSI-Offload“ auf der dritten Partition des Ports aktiviert ist, „FCoE-Offload“ auf der zweiten Partition des gleichen
Ports im NPAR-Modus nicht aktiviert werden. Die Option
iSCSI Mode
(iSCSI-Modus) wird nicht auf allen Adaptern unterstützt.
FIP MAC Address
(FIP-MAC-Adresse)
1
Virtual FIP MAC Address
(Virtuelle FIP-MAC-Adresse)
World Wide Port Name
(World Wide Port-Name)
Virtual World Wide Port Name
(Virtueller World Wide Port-Name)
World Wide Node Name
(World Wide Name des Knoten)
Virtual World Wide Node Name
(Virtueller World Wide Name des
Knoten)
PCI Device ID
(PCI-Geräte-ID)
PCI
(bus)
Address
(PCI-Bus-Adresse)
1
Dieser Parameter ist nur auf der zweiten Partition eines Ports im NPAR-Modus der
FCoE-Offload-fähigen Adapter verfügbar.
65 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von Partitionen
Abbildung 5-18. Konfiguration der Partition 2: FCoE-Offload
4.
Um die dritte Partition zu konfigurieren, wählen Sie
Partition 3 Configuration
(Konfiguration der Partition 3) aus, um die Seite „Partition 3 Configuration“
(Konfiguration der Partition 3,
Abbildung 5-17 ) zu öffnen. Wenn „iSCSI
Offload“ (iSCSI-Offload) vorhanden ist, zeigt die Option „Partition 3
Configuration“ (Konfiguration der Partition 3) die folgenden Parameter an:
NIC Mode
(NIC-Modus) (
Disabled
(Deaktiviert))
iSCSI Offload Mode
(iSCSI-Offload-Modus) (
Enabled
(Aktiviert))
iSCSI Offload MAC Address
(iSCSI-Offload-MAC-Adresse)
2
Virtual iSCSI Offload MAC Address 2
(Virtuelle iSCSI-Offload-MAC-Adresse)
PCI Device ID
(PCI-Geräte-ID)
PCI Address
(PCI-Adresse)
Abbildung 5-19. Konfiguration der Partition 3: iSCSI-Offload
2
Dieser Parameter ist nur auf der dritten Partition eines Ports im NPAR-Modus der iSCSI-Offload-fähigen Adapter verfügbar.
66 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von Partitionen
5.
Um die verbleibenden Ethernet-Partitionen zu konfigurieren, einschließlich der vorherigen (falls nicht für Offload aktiviert), öffnen Sie die Seite für eine
Ethernet-Partition ab Version 2 (siehe
NIC Mode
(NIC-Modus) (
Enabled
(Aktiviert) oder
Disabled
(Deaktiviert)). Ist diese Option deaktiviert, wird die Partition in einer Art ausgeblendet, dass sie im BS nicht angezeigt wird, wenn weniger
Partitionen als die maximale Anzahl an Partitionen (oder PCI-PFs) erkannt werden.
PCI Device ID
(PCI-Geräte-ID)
PCI Address
(PCI-Adresse)
MAC-Adresse
Virtual MAC Address
(Virtuelle MAC-Adresse)
Abbildung 5-20. Konfiguration der Partition 4: Ethernet
Partitionieren für VMware ESXi 6.0 und ESXi 6.5
Wenn die folgenden Zustände auf einem System vorliegen, auf dem entweder
VMware ESXi 6.0 oder ESXi 6.5 ausgeführt wird, müssen die folgenden Treiber deinstalliert und erneut installiert werden:
Der Adapter ist für die Aktivierung von NPAR auf allen NIC-Partitionen konfiguriert.
Der Adapter befindet sich im Modus „Single Function“ (Einzelfunktion).
Die Konfiguration wird gespeichert und das System neu gestartet.
Speicherpartitionen sind aktiviert (durch das Konvertieren eine der
NIC-Partitionen in Speicher), während Treiber bereits auf dem System installiert sind.
Partition 2 wird in FCoE geändert.
Die Konfiguration wird gespeichert und das System erneut neu gestartet.
67 AH0054602-01 F
5–Adapterkonfiguration vor dem Start
Konfigurieren von Partitionen
Die Treiber-Neuinstallation ist erforderlich, da die Speicherfunktionen ggf. die vmnic
X
-Nummerierung statt der vmhba
X
-Nummerierung beibehalten. Dies wird deutlich, wenn Sie den folgenden Befehl auf dem System ausführen:
#
esxcfg-scsidevs -a
vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a
(0000:19:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE
Controller (FCoE) vmhba0 lsi_mr3 link-n/a sas.51866da071fa9100
(0000:18:00.0) Avago (LSI) PERC H330 Mini vmnic10 qedf link-up fc.2000000e1ef249f8:2001000e1ef249f8
(0000:d8:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE
Controller (FCoE) vmhba1 vmw_ahci link-n/a sata.vmhba1
(0000:00:11.5) Intel Corporation Lewisburg SSATA Controller [AHCI mode] vmhba2 vmw_ahci link-n/a sata.vmhba2
(0000:00:17.0) Intel Corporation Lewisburg SATA Controller [AHCI mode] vmhba32 qedil online iscsi.vmhba32 QLogic
FastLinQ QL41xxx Series 10/25 GbE Controller (iSCSI) vmhba33 qedil online iscsi.vmhba33 QLogic
FastLinQ QL41xxx Series 10/25 GbE Controller (iSCSI)
Beachten Sie in der Ausgabe für den vorherigen Befehl, dass es sich bei vmnic4 und vmnic10
um tatsächliche Speicheradapter-Ports handelt. Um dieses Verhalten zu verhindern, empfiehlt Cavium QLogic, dass Sie die Speicherfunktionen schon bei der Konfiguration des Adapters für den NPAR-Modus aktivieren.
Unter der Annahme, dass sich der Adapter standardmäßig im Modus „Single
Function“ (Einzelfunktion) befindet, sollten Sie beispielsweise die folgenden
Schritte ausführen:
1.
Aktivieren Sie den NPAR-Modus.
2.
Ändern Sie die Partition 2 in FCoE.
3.
Speichern und starten Sie das System neu.
68 AH0054602-01 F
6
RoCE-Konfiguration
In diesem Kapitel wird die RoCE-Konfiguration (V1 und V2) auf dem Adapter der
41
xxx
-Serie, dem Ethernet-Switch und dem Windows- oder Linux-Host beschrieben, darunter:
Unterstützte Betriebssysteme und OFED
„Planen für RoCE“ auf Seite 70
„Vorbereiten des Adapters“ auf Seite 71
„Vorbereiten des Ethernet-Switches“ auf Seite 72
„Konfigurieren von RoCE auf dem Adapter für Windows Server“ auf Seite 73
„Konfigurieren von RoCE auf dem Adapter für Linux“ auf Seite 83
„Konfigurieren von RoCE auf dem Adapter für VMware ESX“ auf Seite 94
ANMERKUNG
Einiger RoCE-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert.
Unterstützte Betriebssysteme und OFED
Tabelle 6-1 zeigt die Betriebssystemunterstützung für RoCE v1, RoCE v2, iWARP
und OFED.
Tabelle 6-1. BS-Unterstützung für RoCE v1, RoCE v2, iWARP und OFED
Betriebssystem
Windows Server 2012 R2
Windows Server 2016
RHEL 6.8
RHEL 6.9
Eingang
Nein
Nein
RoCE v1, iWARP
RoCE v1, iWARP
OFED 3.18-3 GA OFED 4.8-1 GA
k.A.
k.A.
RoCE v1, iWARP
Nein k.A.
k.A.
Nein
Nein
69 AH0054602-01 F
6–RoCE-Konfiguration
Planen für RoCE
Tabelle 6-1. BS-Unterstützung für RoCE v1, RoCE v2, iWARP und OFED (fortgesetzt)
Betriebssystem
RHEL 7.3
RHEL 7.4
SLES 12 SP3
CentOS 7.3
CentOS 7.4
VMware ESXi 6.0 u3
VMware ESXi 6.5, 6.5U1
VMware ESXi 6.7
Eingang
RoCE v1, RoCE v2, iWARP, iSER
RoCE v1, RoCE v2, iWARP, iSER
RoCE v1, RoCE v2, iWARP, iSER
RoCE v1, RoCE v2, iWARP, iSER
RoCE v1, RoCE v2, iWARP, iSER
Nein
RoCE v1, RoCE v2
RoCE v1, RoCE v2
OFED 3.18-3 GA OFED 4.8-1 GA
Nein
Nein
RoCE v1,
RoCE v2, iWARP
Nein
Nein
Nein
Nein k.A.
k.A.
k.A.
Nein
RoCE v1,
RoCE v2, iWARP
Nein k.A.
k.A.
k.A.
Planen für RoCE
Berücksichtigen Sie im Rahmen der Vorbereitung der RoCE-Implementierung
Folgendes:
Wenn Sie Inbox-OFED verwenden, sollte auf dem Server- und dem
Client-System das gleiche Betriebssystem ausgeführt werden. Einige
Anwendungen funktionieren möglicherweise auch bei unterschiedlichen
Betriebssystemen, es gibt jedoch keine Garantie dafür. Dies ist eine
OFED-Einschränkung.
Für OFED-Anwendungen (meist perftest-Anwendungen), sollten die Server- und Client-Anwendungen die gleichen Optionen und Werte verwenden.
Es könnte beispielsweise zu Problemen kommen, wenn Betriebssystem und perftest-Anwendung unterschiedliche Versionen aufweisen. Um die perftest-Version zu überprüfen, geben Sie den folgenden Befehl ein:
#
ib_send_bw --version
Für den Aufbau von libqedr in Inbox-OFED ist eine Installation von libibverbs-devel erforderlich.
70 AH0054602-01 F
6–RoCE-Konfiguration
Vorbereiten des Adapters
Wenn Sie Benutzerbereichsanwendungen in Inbox-OFED ausführen möchten, müssen Sie die InfiniBand
®
Support-Gruppe von yum groupinstall
„InfiniBand Support“ installieren, das u.a. libibcm und libibverbs enthält.
OFED- und RDMA-Anwendungen, die von libibverbs abhängig sind, benötigen außerdem die QLogic RDMA-Benutzerbereichsbibliothek mit der
Bezeichnung „libqedr“. Installieren Sie „libqedr“ über die libqedr RPM- oder
Quellpakete.
RoCE unterstützt nur Little Endian.
RoCE funktioniert nicht über eine VF in einer SR-IOV-Umgebung.
Vorbereiten des Adapters
Führen Sie die folgenden Schritten aus, um DCBX zu aktivieren und die
RoCE-Priorität mithilfe der HII-Verwaltungsanwendung festzulegen. Weitere
Informationen zur HII-Anwendung finden Sie unter Kapitel 5 Adapterkonfiguration vor dem Start .
So bereiten Sie den Adapter vor:
1.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
Data
Center Bridging (DCB) Settings
(DCB-Einstellungen) aus, und klicken Sie anschließend auf
Finish
(Fertigstellen).
2.
Klicken Sie im Fenster mit den Data Center Bridging (DCB)-Einstellungen auf die Option
DCBX Protocol
(DCBX-Protokoll). Der Adapter der
41
xxx
-Serie unterstützt die Protokolle CEE und IEEE. Dieser Wert sollte mit dem entsprechenden Wert auf dem DCB-Switch übereinstimmen. Wählen
Sie in diesem Beispiel
CEE
oder
Dynamic
(Dynamisch) aus.
3.
Geben Sie im Feld
RoCE Priority
(RoCE-Priorität) einen Prioritätswert ein.
Dieser Wert sollte mit dem entsprechenden Wert auf dem DCB-Switch
übereinstimmen. Geben Sie in diesem Beispiel 5 ein. In der Regel wird 0 als
Standardwert für die Klasse des verlustbehafteten Datenverkehrs, 3 für die
FCoE-Datenverkehrsklasse und 4 für die verlustfreie iSCSI-TLV over
DCB-Datenverkehrsklasse verwendet.
4.
Klicken Sie auf
Back
(Zurück).
5.
Klicken Sie an der Eingabeaufforderung auf
Yes
(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgestellt wurde.
Unter Windows können Sie DCBX über die HII- oder QoS-Methode konfigurieren. Die in diesem Abschnitt dargestellte Konfiguration verläuft
über HII. Informationen zu QoS finden Sie unter „Konfigurieren von QoS für
71 AH0054602-01 F
6–RoCE-Konfiguration
Vorbereiten des Ethernet-Switches
Vorbereiten des Ethernet-Switches
In diesem Abschnitt wird beschrieben, wie Sie einen Cisco
®
Nexus
®
6000
Ethernet-Switch und einen Dell
®
Z9100 Ethernet-Switch für RoCE konfigurieren.
Konfigurieren des Cisco Nexus 6000 Ethernet-Switches
Konfigurieren des Dell Z9100 Ethernet-Switches
Konfigurieren des Cisco Nexus 6000 Ethernet-Switches
Die Schritte zum Konfigurieren des Cisco Nexus 6000 Ethernet-Switches für
RoCE umfassen das Konfigurieren von Klassenzuordnungen, das Anwenden der
Richtlinie und das Zuweisen einer VLAN-ID zum Switch-Port.
Gehen Sie wie folgt vor, um den Cisco-Switch zu konfigurieren:
1.
Öffnen Sie wie folgt eine config terminal-Sitzung:
Switch#
config terminal
switch(config)#
2.
Konfigurieren Sie Quality of Service (QoS)-Klassenzuordnungen und stellen
Sie die RoCE-Priorität wie folgt so ein, dass sie der des Adapters entspricht (5).
switch(config)#
class-map type qos class-roce
switch(config)#
match cos 5
3.
Konfigurieren Sie Zuordnungen für Warteschlangenklassen wie folgt: switch(config)#
class-map type queuing class-roce
switch(config)#
match qos-group 3
4.
Konfigurieren Sie Zuordnungen für Netzwerk-QoS-Klassen wie folgt: switch(config)#
class-map type network-qos class-roce
switch(config)#
match qos-group 3
5.
Konfigurieren Sie Zuordnungen für QoS-Richtlinien wie folgt: switch(config)#
policy-map type qos roce
switch(config)#
class type qos class-roce
switch(config)#
set qos-group 3
6.
Konfigurieren Sie Zuordnungen für Warteschlangenrichtlinien, um die
Netzwerkbandbreite zuzuweisen. Verwenden Sie in diesem Beispiel einen
Wert von 50 Prozent: switch(config)#
policy-map type queuing roce
switch(config)#
class type queuing class-roce
switch(config)#
bandwidth percent 50
72 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
7.
Konfigurieren Sie Netzwerk-QoS-Richtlinienzuordnungen, um die
Prioritätsdatenflusssteuerung für die Datenverkehrsklasse „no drop“ wie folgt einzustellen: switch(config)#
policy-map type network-qos roce
switch(config)#
class type network-qos class-roce
switch(config)#
pause no-drop
8.
Wenden Sie die neue Richtlinie auf Systemebene wie folgt an: switch(config)#
system qos
switch(config)#
service-policy type qos input roce
switch(config)#
service-policy type queuing output roce
switch(config)#
service-policy type queuing input roce
switch(config)#
service-policy type network-qos roce
9.
Weisen Sie dem Switch-Port eine VLAN-ID zu, die der VLAN-ID des
Adapters (5) entspricht.
switch(config)#
interface ethernet x/x
switch(config)#
switchport mode trunk
switch(config)#
switchport trunk allowed vlan 1,5
Konfigurieren des Dell Z9100 Ethernet-Switches
Um den Dell Z9100 Ethernet-Switch für RoCE zu konfigurieren, folgen Sie dem
unter Anhang C Dell Z9100-Switch- Konfiguration beschriebenen Verfahren.
Konfigurieren von RoCE auf dem Adapter für
Windows Server
Das Konfigurieren von RoCE auf dem Adapter für Windows Server umfasst das
Aktivieren von RoCE auf dem Adapter und das Überprüfen der MTU-Größe von
Network Direct.
So konfigurieren Sie RoCE auf einem Windows Server-Host:
1.
Aktivieren Sie RoCE auf dem Adapter.
a.
Öffnen Sie den Geräte-Manager von Windows und rufen Sie die
Adapter der 41
xxx
-Serie NDIS Miniport-Eigenschaften auf.
b.
Klicken Sie unter den Eigenschaften des QLogic FastLinQ-Adapters auf die Registerkarte
Advanced
(Erweitert).
c.
Konfigurieren Sie auf der Seite „Advanced“ (Erweitert) die
Eigenschaften unter
, indem Sie jedes Element unter
Property
(Eigenschaft) auswählen und einen entsprechenden
Wert
für dieses Element auswählen. Klicken Sie anschließend auf
OK
.
73 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
Tabelle 6-2. Erweiterte Eigenschaften für RoCE
Eigenschaft Wert oder Beschreibung
Network Direct-Funktionalität Enabled (Aktiviert)
MTU-Größe für Network
Direct
RDMA-Modus
Die Network Direct-MTU-Größe muss unter der Größe des Jumbo-Pakets liegen.
RoCE v1
oder
RoCE v2
. Der Wert
iWARP
kann nur verwendet werden, wenn Sie Ports für iWARP gemäß
Kapitel 7 iWARP-Konfiguration konfigurieren.
VLAN-ID
Quality of Service
Sie können der Schnittstelle eine beliebige VLAN-ID zuweisen. Der Wert muss mit dem dem Switch zugewiesenen Wert übereinstimmen.
Aktiviert oder deaktiviert die Quality of Service (QoS).
Wählen Sie
Enabled
(Aktiviert) aus, wenn Sie DCB
über den Windows-DCB-QoS-Dienst steuern. Wei-
tere Informationen finden Sie unter „Konfigurieren von QoS durch Deaktivieren von DCBX auf dem
.
Wählen Sie
Disabled
(Deaktiviert) aus, wenn Sie
DCB über den angeschlossenen DCB-konfigurierten Switch steuern. Weitere Informationen finden
Sie unter „Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter“ auf Seite 239 .
zeigt ein Beispiel für die Konfiguration eines
Eigenschaftswerts.
74 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
Abbildung 6-1. Konfigurieren der RoCE-Eigenschaften
2.
Überprüfen Sie unter Verwendung von Windows PowerShell, dass RDMA auf dem Adapter aktiviert ist. Der Befehl
Get-NetAdapterRdma
führt die
Adapter auf, die RDMA unterstützen. Beide Ports sind aktiviert.
ANMERKUNG
Wenn Sie RoCE over Hyper-V konfigurieren, weisen Sie der physischen
Schnittstelle keine VLAN-ID zu.
PS C:\Users\Administrator>
Get-NetAdapterRdma
Name InterfaceDescription Enabled
----- -------------------- -------
SLOT 4 3 Port 1 QLogic FastLinQ QL41262... True
SLOT 4 3 Port 2 QLogic FastLinQ QL41262... True
3.
Überprüfen Sie unter Verwendung von Windows PowerShell, dass
NetworkDirect
auf dem Host-Betriebssystem aktiviert ist. Der Befehl
Get-NetOffloadGlobalSetting
zeigt an, dass
NetworkDirect
aktiviert ist.
PS C:\Users\Administrators>
Get-NetOffloadGlobalSetting
ReceiveSideScaling : Enabled
ReceiveSegmentCoalescing : Enabled
Chimney : Disabled
75 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
TaskOffload : Enabled
NetworkDirect : Enabled
NetworkDirectAcrossIPSubnets : Blocked
PacketCoalescingFilter : Disabled
4.
Schließen Sie ein SMB-Laufwerk an (Server Message Block), führen Sie
RoCE-Datenverkehr aus, und überprüfen Sie die Ergebnisse.
Um ein SMB-Laufwerk einzurichten und zu verbinden, zeigen Sie die
Informationen an, die online bei Microsoft verfügbar sind: https://technet.microsoft.com/en-us/library/hh831795(v=ws.11).aspx
5.
Standardmäßig werden in Microsoft SMB Direct zwei RDMA-Verbindungen pro Port hergestellt, was eine gute Leistung ermöglicht. Dazu gehört auch eine Übertragungsrate mit umfassenderer Blockgröße (z. B. 64 KB). Zur
Optimierung der Leistung können Sie die Anzahl der RDMA-Verbindungen pro RDMA-Schnittstelle auf vier (oder mehr) erhöhen.
Geben Sie zum Erhöhen der Anzahl der RDMA-Verbindungen auf vier
(oder mehr) den folgenden Befehl in Windows PowerShell ein:
PS C:\Users\Administrator>
Set-ItemProperty -Path
"HKLM:\SYSTEM\CurrentControlSet\Services\LanmanWorkstation\
Parameters" ConnectionCountPerRdmaNetworkInterface -Type
DWORD -Value 4 –Force
76 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
Anzeigen von RDMA-Zählern
Das folgende Verfahren gilt auch für iWARP.
So zeigen Sie RDMA-Zähler für RoCE an:
1.
Starten Sie die Leistungsüberwachung.
2.
Öffnen Sie das Dialogfeld „Add Counters“ (Zähler hinzufügen).
zeigt ein Beispiel.
Abbildung 6-2. Dialogfeld „Add Counters“ (Zähler hinzufügen)
77 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
ANMERKUNG
Wenn die Zähler für Cavium RDMA im Dialogfeld „Add Counters“
(Zähler hinzufügen) der Leistungsüberwachung nicht enthalten sind, fügen Sie sie manuell hinzu, indem Sie den folgenden Befehl am
Treiberstandort ausführen:
3.
Wählen Sie einen der folgenden Zähler-Typen aus:
Cavium FastLinQ Congestion Control
:
Erhöhen bei Stauungen im Netzwerk, wenn ECN am Switch aktiviert ist.
Beschreiben der erfolgreich versendeten und erhaltenen RoCE v2 ECN Marked Packets und Congestion Notification Packets
(CNPs).
Nur auf RoCE v2 anwenden.
Cavium FastLinQ Port-Zähler
:
Erhöhen bei Stauungen im Netzwerk.
Erhöhen unterbrechen, wenn Datenflusssteuerung oder globale Unterbrechung konfiguriert ist und Stauungen im
Netzwerk auftreten.
PFC-Zähler erhöhen, wenn Datenflusssteuerung oder globale Unterbrechung konfiguriert ist und Stauungen im
Netzwerk auftreten.
Cavium FastLinQ RDMA Fehler-Zähler
:
Erhöhen, wenn Fehler im Transportbetrieb auftreten.
Weitere Informationen finden Sie unter
4.
Wählen Sie unter
Instances of selected object
(Instanzen des ausgewählten Objekts) die Option
Total
(Gesamt) und klicken Sie dann auf
Add
(Hinzufügen).
78 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
zeigt Beispiele einer Ausgabe der Zählerüberwachung.
Abbildung 6-3. Leistungsüberwachung: Cavium FastLinQ Zähler
Tabelle 6-3 bietet Details zu den Fehler-Zählern .
Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler
RDMA
Fehler-
Zähler
Beschreibung
CQ overflow Eine Completion-Warteschlange, in der eine RDMA-Arbeitsanfrage gepostet wird. Dieser Zähler bestimmt die Anzahl der Fälle, in denen sich in der Sende- oder
Empfangs-Warteschlange eine
Completion für eine Arbeitsanfrage befand, aber in der entsprechenden
Completion-Warteschlange kein Platz war.
Zutreffend für RoCE?
Zutreffend für iWARP?
Ja Ja
Fehlerbehebung
Weist auf ein
Problem mit dem
Softwaredesign hin, das eine unzureichende
Größe der
Completion-Warteschl ange verursacht.
79 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt)
RDMA
Fehler-
Zähler
Requestor local protection
Beschreibung
Requestor
Bad response
Requestor
CQEs flushed with error
Requestor
Local length
Rückgabe einer fehlerhaften
Antwort durch den Responder.
Gepostete Arbeitsanfragen können geflusht werden, indem
Fertigstellungen mit Flush-Status an die CQ (ohne dabei die
Arbeitsanfrage tatsächlich auszuführen), falls das QP aus einem beliebigen Grund in den
Fehlerzustand eintritt und
Arbeitsanfragen noch unerfüllt sind. Wurde eine Arbeitsanfrage mit Fehlerstatus abgeschlossen, werden alle anderen noch nicht abgeschlossenen Arbeitsanfragen für dieses QP geflusht.
RDMA READ-Antwort enthält zu viele oder zu wenig
Payload-Daten.
Zutreffend für RoCE?
Zutreffend für iWARP?
Ja Ja –
Fehlerbehebung
Ja
Ja
Ja
Ja
Ja
Ja
Tritt auf, wenn die
RDMA-Verbindung ausfällt.
Deutet gewöhnlich auf ein Problem mit den
Softwarekomponenten des Hosts hin.
Deutet gewöhnlich auf ein Problem mit den
Softwarekomponenten des Hosts hin.
Requestor local QP operation
Requestor
Remote access
Das Datensegment der lokal geposteten Arbeitsanfrage verweist nicht auf keinen gültigen Speicherbereich für den angeforderten Vorgang.
Beim Verarbeiten dieser
Arbeitsanfrage wurde ein interner
QP-Konsistenzfehler entdeckt.
Auf einem von RDMA Read zu lesenden Remote-Datenpuffer, der von einem RDMA Write geschrieben wurde oder auf den von einem Atomic Request zugegriffen wurde, ist ein
Schutzfehler aufgetreten.
Ja
Ja
Ja
Ja
–
–
80 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
RDMA
Fehler-
Zähler
Requestor
Remote
Invalid request
Requestor remote operation
Requestor retry exceeded
Requestor
RNR Retries exceeded
Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt)
Beschreibung
Auf der Remote-Seite wurde eine ungültige Meldung auf dem Kanal erhalten. Bei der ungültigen
Meldung könnte es sich um eine Sendemeldung oder eine
RDMA-Anfrage gehandelt haben.
Die Remote-Seite konnte den
Vorgang aufgrund des lokalen
Problems nicht abschließen.
Das Maximum für
Transport-Wiederholungsversuche wurde erreicht
Neuversuch, da RNR NAK
Empfang ohne Erfolg bis zur maximalen Anzahl versucht wurde
Zutreffend für RoCE?
Zutreffend für iWARP?
Ja Ja
Ja
Ja
Ja
Ja
Ja
Nein
Fehlerbehebung
Mögliche Ursachen sind u. a.: von dieser
Empfangswarteschlan ge nicht unterstützter
Vorgang; unzureichender
Empfangspuffer für neue RDMA- oder Atomic
Request-Anfrage oder die in einer
RDMA-Anfrage angegebene Länge ist höher als 231 Byte.
Ein Softwareproblem auf der Remote-Seite
(z. B. eines, das einen
QP-Fehler oder eine fehlerhafte WQE auf dem RQ verursachte), welches die
Fertigstellung des
Vorgangs verhinderte.
Eventuell antwortet der
Remote-Peer nicht mehr oder ein
Netzwerkproblem verhindert die
Bestätigung von
Meldungen.
Eventuell antwortet der
Remote-Peer nicht mehr oder ein
Netzwerkproblem verhindert die
Bestätigung von
Meldungen.
81 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Windows Server
Responder local length
Responder local protection
Responder
Local QP
Operation error
Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt)
RDMA
Fehler-
Zähler
Responder
CQE flushed
Beschreibung
Gepostete Arbeitsanfragen
(Empfangspuffer in RQ) können geflusht werden, indem
Completions mit Flush-Status and die CQ gesendet werden, wenn das QP aus einem beliebigen
Grund in den Fehlerzustand eintritt und in der RQ noch ausstehende
Empfangspuffer sind. Wurde eine
Arbeitsanfrage mit Fehlerstatus abgeschlossen, werden alle anderen noch nicht abgeschlossenen Arbeitsanfragen für dieses QP geflusht.
Ungültige Länge in eingehenden
Meldungen.
Zutreffend für RoCE?
Zutreffend für iWARP?
Ja Ja –
Fehlerbehebung
Ja Ja
Das Datensegment der lokal geposteten Arbeitsanfrage verweist nicht auf keinen gültigen Speicherbereich für den angeforderten Vorgang.
Beim Verarbeiten dieser
Arbeitsanfrage wurde ein interner
QP-Konsistenzfehler entdeckt.
Ja
Ja
Ja
Ja
Fehlverhalten des
Remote-Peer.
Eingehende
Sende-Meldungen sind beispielsweise größer als der
Empfangspuffer.
Weist auf ein
Softwareproblem mit der
Speicherverwaltung hin.
Deutet auf einen
Softwarefehler hin.
82 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt)
RDMA
Fehler-
Zähler
Beschreibung
Responder remote invalid request
Ungültige eingehende Nachricht auf dem Kanal durch den
Responder erkannt.
Zutreffend für RoCE?
Zutreffend für iWARP?
Ja Ja
Fehlerbehebung
Deutet auf ein
Fehlverhalten eines
Remote-Peers hin.
Mögliche Ursachen sind u. a.: von dieser
Empfangswarteschlan ge nicht unterstützter
Vorgang; unzureichender
Empfangspuffer für neue RDMA-Anfrage oder die in einer
RDMA-Anfrage angegebene Länge ist höher als 2
31
Byte.
Konfigurieren von RoCE auf dem Adapter für Linux
In diesem Abschnitt wird das RoCE-Konfigurationsverfahren für RHEL und SLES beschrieben. Es wird auch erläutert, wie Sie die RoCE-Konfiguration überprüfen können. Außerdem finden Sie in dem Abschnitt Hinweise zur Verwendung von
Gruppen-IDs (GIDs) mit VLAN-Schnittstellen.
Überprüfen der RoCE-Konfiguration auf Linux
VLAN-Schnittstellen und GID-Indexwerte
Konfiguration von RoCE V2 für Linux
83 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
RoCE-Konfiguration für RHEL
Zur Konfiguration von RoCE auf dem Adapter muss die Open Fabrics Enterprise
Distribution (OFED) auf dem RHEL-Host installiert und konfiguriert sein.
Gehen Sie wie folgt vor, um Inbox-OFED für RHEL vorzubereiten:
1.
Wählen Sie beim Installieren oder Aktualisieren des Betriebssystems die
InfiniBand- und OFED-Support-Pakete aus.
2.
Installieren Sie die folgenden RPM-Dateien aus dem RHEL-ISO-Image: libibverbs-devel-
x.x.x
.x86_64.rpm
(erforderlich für libqedr-Bibliothek) perftest-
x.x.x
.x86_64.rpm
(erforderlich für InfiniBand-Bandbreiten- und Latenzanwendungen)
Alternativ können Sie Inbox-OFED mit Yum installieren:
yum groupinstall "Infiniband Support" yum install perftest yum install tcl tcl-devel tk zlib-devel libibverbs libibverbs-devel
ANMERKUNG
Wenn Sie während der Installation bereits die oben angegebenen
Pakete installiert haben, müssen Sie sie nicht erneut installieren.
Die Inbox-OFED- und Support-Pakete können je nach
Betriebssystemversion unterschiedlich sein.
3.
Installieren Sie die neuen Linux-Treiber wie unter „Installieren der
Linux-Treiber mit RDMA“ auf Seite 15 beschrieben.
RoCE-Konfiguration für SLES
Zur Konfiguration von RoCE auf dem Adapter für einen SLES-Host muss OFED auf dem SLES-Host installiert und konfiguriert sein.
Gehen Sie wie folgt vor, um Inbox-OFED für SLES Linux zu installieren:
1.
Wählen Sie beim Installieren oder Aktualisieren des Betriebssystems die
InfiniBand-Support-Pakete aus.
2.
Installieren Sie die folgenden RPM-Dateien aus dem jeweiligen SLES
SDK-Kit-Image: libibverbs-devel-
x.x.x
.x86_64.rpm
(erforderlich für libqedr-Installation)
84 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux perftest-
x.x.x
.x86_64.rpm
(erforderlich für Bandbreiten- und Latenzanwendungen)
3.
Installieren Sie die Linux-Treiber, wie unter „Installieren der Linux-Treiber mit
beschrieben.
Überprüfen der RoCE-Konfiguration auf Linux
Überprüfen Sie nach dem Installieren von OFED, dem Installieren der
Linux-Treiber und dem Laden der RoCE-Treiber, ob die RoCE-Geräte auf allen
Linux-Betriebssystemen erkannt wurden.
Gehen Sie wie folgt vor, um die RoCE-Konfiguration auf Linux zu überprüfen:
1.
Halten Sie die Firewall-Tabellen mithilfe der service/systemctl
-Befehle an.
2.
Nur für RHEL: Wenn der RDMA-Dienst installiert ist ( yum install rdma
), stellen Sie sicher, dass der RDMA-Dienst gestartet wurde.
ANMERKUNG
Bei RHEL 6.x und SLES 11 SP4 müssen Sie den RDMA-Dienst nach einem Neustart starten. Bei RHEL 7.
x
und SLES ab Version 12 SPX startet der RDMA-Dienst nach dem Neustart selbständig.
Auf RHEL oder CentOS: Verwenden Sie zum Starten des Dienstes den
Statusbefehl service rdma
:
Falls RDMA nicht startet, geben Sie den folgenden Befehl ein:
#
service rdma start
Falls RDMA nicht startet, führen Sie alternativ einen der folgenden
Befehle aus:
#
/etc/init.d/rdma start
oder
#
systemctl start rdma.service
3.
Überprüfen Sie in den dmesg-Protokollen, ob die RoCE-Geräte erkannt wurden:
#
dmesg|grep qedr
[87910.988411] qedr: discovered and registered 2 RoCE funcs
4.
Stellen Sie sicher, dass alle Module geladen wurden. Zum Beispiel:
# lsmod|grep qedr
qedr 89871 0
qede 96670 1 qedr
85 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
qed 2075255 2 qede,qedr
ib_core 88311 16 qedr, rdma_cm, ib_cm,
ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp,
ib_ucm,ib_iser,ib_srpt,ib_umad,
ib_uverbs,rdma_ucm,ib_ipoib,ib_isert
5.
Konfigurieren Sie die IP-Adresse und aktivieren Sie den Port unter
Verwendung eines Konfigurationsverfahrens, wie z. B. „ifconfig“:
#
ifconfig ethX 192.168.10.10/24 up
6.
Geben Sie den Befehl ibv_devinfo
ein. Für jede PCI-Funktion sollte eine eigene hca_id
angezeigt werden, wie im folgenden Beispiel dargestellt: root@captain:~#
ibv_devinfo
hca_id: qedr0
transport: InfiniBand (0)
fw_ver: 8.3.9.0
node_guid: 020e:1eff:fe50:c7c0
sys_image_guid: 020e:1eff:fe50:c7c0
vendor_id: 0x1077
vendor_part_id: 5684
hw_ver: 0x0
phys_port_cnt: 1
port: 1
state: PORT_ACTIVE (1)
max_mtu: 4096 (5)
active_mtu: 1024 (3)
sm_lid: 0
port_lid: 0
port_lmc: 0x00
link_layer: Ethernet
7.
Überprüfen Sie die L2- und RoCE-Konnektivität aller Server: ein Server fungiert als Server, der andere als Client.
Überprüfen Sie die L2-Verbindung, indem Sie einen einfachen ping
-Befehl ausführen.
Überprüfen Sie die RoCE-Verbindung, indem Sie einen
RDMA-Ping-Befehl auf dem Server oder Client ausführen:
Führen Sie auf dem Server den folgenden Befehl aus:
ibv_rc_pingpong -d <ib-dev> -g 0
Führen Sie auf dem Client den folgenden Befehl aus:
ibv_rc_pingpong -d <ib-dev> -g 0 <Server L2 IP-Address>
86 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
Im Folgenden sind Beispiele für erfolgreiche Ping-Pong-Tests auf dem Server und auf dem Client aufgeführt:
Server-Ping:
root@captain:~#
ibv_rc_pingpong -d qedr0 -g 0
local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570
8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec
1000 iters in 0.05 seconds = 45.61 usec/iter
Client-Ping:
root@lambodar:~#
ibv_rc_pingpong -d qedr0 -g 0 192.168.10.165
local address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 remote address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0
8192000 bytes in 0.02 seconds = 4211.28 Mbit/sec
1000 iters in 0.02 seconds = 15.56 usec/iter
Führen Sie zum Anzeigen der RoCE-Statistik die folgenden Befehle aus, wobei
X
für die Gerätenummer steht:
>
mount -t debugfs nodev /sys/kernel/debug
>
cat /sys/kernel/debug/qedr/qedr
X
/stats
VLAN-Schnittstellen und GID-Indexwerte
Falls Sie auf dem Server und auf dem Client VLAN-Schnittstellen verwenden, müssen Sie die gleiche VLAN-ID auf dem Switch konfigurieren. Falls Sie
Datenverkehr über einen Switch ausführen, müssen die InfiniBand-Anwendungen den korrekten GID-Wert verwenden. Dieser basiert auf der VLAN-ID und der
VLAN-IP-Adresse.
Basierend auf den folgenden Ergebnissen, sollte der GID-Wert (-x 4 / -x 5) für jede perftest-Anwendung verwendet werden.
#
ibv_devinfo -d qedr0 -v|grep GID
GID[ 0]: fe80:0000:0000:0000:020e:1eff:fe50:c5b0
GID[ 1]:
GID[ 2]:
GID[ 3]:
GID[ 4]:
GID[ 5]:
0000:0000:0000:0000:0000:ffff:c0a8:0103
2001:0db1:0000:0000:020e:1eff:fe50:c5b0
2001:0db2:0000:0000:020e:1eff:fe50:c5b0
0000:0000:0000:0000:0000:ffff:c0a8:0b03
IP-Adresse für
VLAN-Schnittstelle fe80:0000:0000:0000:020e:1e00:0350:c5b0
VLAN-ID 3
87 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
ANMERKUNG
Der GID-Standardwert für die Einstellungen „Back-to-Back“ oder „Pause“ ist null (0). Bei Server/Switch-Konfigurationen müssen Sie den richtigen
GID-Wert ausfindig machen. Falls Sie einen Switch verwenden, lesen Sie die entsprechende Dokumentation zur Switch-Konfiguration, um die richtigen Einstellungen zu ermitteln.
Konfiguration von RoCE V2 für Linux
Zur Funktionsüberprüfung von RoCE v2 muss ein von RoCE v2 unterstützter
Kernel verwendet werden.
Gehen Sie wie folgt vor, um RoCE v2 für Linux zu konfigurieren:
1.
Stellen Sie sicher, dass Sie einen der folgenden unterstützten Kernels verwenden:
SLES 12 SP2 GA
RHEL 7.3 GA
2.
Konfigurieren Sie RoCE v2 wie folgt: a.
Bestimmen Sie den GID-Index für RoCE v2.
b.
Konfigurieren Sie die Routingadresse für Server und Client.
c.
Aktivieren Sie das L3-Routing auf dem Switch.
ANMERKUNG
Sie können RoCE v1 und RoCE v2 unter Verwendung von
RoCE v2-unterstützten Kernels konfigurieren. Mithilfe dieser Kernels ist es möglich, den RoCE-Datenverkehr über dasselbe Teilnetz oder
über unterschiedliche Teilnetze wie RoCE v2 und beliebige andere routingfähige Umgebungen auszuführen. Für RoCE v2 sind nur wenige Einstellungen erforderlich, alle anderen Switch- und
Adaptereinstellungen für RoCE v1 und RoCE v2 sind einheitlich.
Bestimmen des RoCE v2-GID-Indexes oder der Adresse
Zur Ermittlung der spezifischen GIDs für RoCE v1 und RoCE v2 können Sie entweder System- oder Kategorieparameter verwenden. Alternativ können Sie auch die RoCE-Scripts aus dem Quellpaket der Serie 41
xxx
FastLinQ ausführen.
Zur Überprüfung der Standardeinstellung für den
RoCE GID Index
(RoCE-GID-Index) und der Adresse führen Sie den Befehl ibv_devinfo
aus und vergleichen diesen mit den System- oder Kategorieparametern. Zum Beispiel:
#
ibv_devinfo -d qedr0 -v|grep GID
GID[ 0]: fe80:0000:0000:0000:020e:1eff:fec4:1b20
88 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
GID[ 1]: fe80:0000:0000:0000:020e:1eff:fec4:1b20
GID[ 2]: 0000:0000:0000:0000:0000:ffff:1e01:010a
GID[ 3]: 0000:0000:0000:0000:0000:ffff:1e01:010a
GID[ 4]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004
GID[ 5]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004
GID[ 6]: 0000:0000:0000:0000:0000:ffff:c0a8:6403
GID[ 7]: 0000:0000:0000:0000:0000:ffff:c0a8:6403
Überprüfen des GID-Indexes für RoCE v1 oder RoCE v2 sowie der Adresse mithilfe der System- und Kategorieparameter
Verwenden Sie eine der folgenden Optionen, um den GID-Index für RoCE v1 oder
RoCE v2 sowie die Adresse mithilfe der unten angeführten System- und
Kategorieparameter zu überprüfen:
Option 1:
#
cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/0
IB/RoCE V1
#
cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/1
RoCE V2
#
cat /sys/class/infiniband/qedr0/ports/1/gids/0
fe80:0000:0000:0000:020e:1eff:fec4:1b20
#
cat /sys/class/infiniband/qedr0/ports/1/gids/1
fe80:0000:0000:0000:020e:1eff:fec4:1b20
Option 2:
Verwenden Sie die Scripts aus dem FastLinQ-Quellpaket.
#
/../fastlinq-8.
x.x.x
/add-ons/roce/show_gids.sh
DEV PORT INDEX GID IPv4 VER DEV
--- ---- ----- --- ------------ --- --qedr0 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v1 p4p1 qedr0 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v2 p4p1 qedr0 1 2 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v1 p4p1 qedr0 1 3 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v2 p4p1 qedr0 1 4 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v1 p4p1 qedr0 1 5 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v2 p4p1 qedr0 1 6 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v1 p4p1.100
qedr0 1 7 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v2 p4p1.100
qedr1 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v1 p4p2 qedr1 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v2 p4p2
89 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
ANMERKUNG
Sie müssen die GID-Indexwerte für RoCE v1 oder RoCE v2 auf Basis der Server- oder Switch-Konfiguration spezifizieren (Pause/PFC).
Verwenden Sie den GID-Index für die Link-local-IPv6-Adresse, die
IPv4-Adresse oder die IPv6-Adresse. Zur Verwendung von
VLAN-markierten Frames für den RoCE-Datenverkehr müssen Sie die
GID-Indexwerte spezifizieren, die sich von der VLAN-IPv4-Adresse oder der VLAN-IPv6-Adresse ableiten.
Überprüfen der RoCE v1- oder RoCE v2-Funktion mithilfe der perftest-Anwendungen
In diesem Abschnitt erfahren Sie, wie Sie die RoCE v1- oder RoCE v2-Funktion mithilfe der perftest-Anwendungen überprüfen. In diesem Beispiel werden die folgende Server-IP und die folgende Client-IP verwendet:
Server-IP: 192.168.100.3
Client-IP: 192.168.100.4
Überprüfen von RoCE v1
Verwenden Sie zur Ausführung dasselbe Teilnetz und den GID-Index für RoCE v1.
Server#
ib_send_bw -d qedr0 -F -x 0
Client#
ib_send_bw -d qedr0 -F -x 0 192.168.100.3
Überprüfen von RoCE v2
Verwenden Sie zur Ausführung dasselbe Teilnetz und den GID-Index für RoCE v2.
Server#
ib_send_bw -d qedr0 -F -x 1
Client#
ib_send_bw -d qedr0 -F -x 1 192.168.100.3
ANMERKUNG
Wenn Sie die Ausführung mittels PFC-Switch-Konfiguration durchführen, verwenden Sie die GIDs für RoCE v1 oder RoCE v2 über dasselbe Teilnetz.
Überprüfen von RoCE V2 über verschiedene Teilnetze
ANMERKUNG
Sie müssen zunächst die Routeneinstellungen für Switch und Server konfigurieren. Stellen Sie mithilfe der Benutzerschnittstelle für HII oder UEFI die RoCE-Priorität und den DCBX-Modus am Adapter ein.
90 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
Gehen Sie wie folgt vor, um RoCE v2 über verschiedene Teilnetze zu
überprüfen:
1.
Stellen Sie mithilfe der DCBX-PFC-Konfiguration die Routenkonfiguration für Server und Client ein.
Systemeinstellungen:
Server-VLAN-IP
: 192.168.100.3 und
Gateway:
192.168.100.1
Client-VLAN-IP
: 192.168.101.3 und
Gateway:
192.168.101.1
Serverkonfiguration
:
#
/sbin/ip link add link p4p1 name p4p1.100 type vlan id 100
#
ifconfig p4p1.100 192.168.100.3/24 up
#
ip route add 192.168.101.0/24 via 192.168.100.1 dev p4p1.100
Client-Konfiguration:
#
/sbin/ip link add link p4p1 name p4p1.101 type vlan id 101
#
ifconfig p4p1.101 192.168.101.3/24 up
#
ip route add 192.168.100.0/24 via 192.168.101.1 dev p4p1.101
2.
Passen Sie die Switcheinstellungen mithilfe des folgenden Verfahrens an.
Verwenden Sie eine beliebige Methode zur Datenflusssteuerung
(Pause, DCBX-CEE oder DCBX-IEEE) und aktivieren Sie das
IP-Routing für RoCE v2. Informationen zur Konfiguration von RoCE v2
finden Sie unter „Vorbereiten des Ethernet-Switches“ auf Seite 72
oder in den Switch-Dokumenten des Händlers.
Wenn Sie eine PCF-Konfiguration und L3-Routing verwenden, führen
Sie den RoCE v2-Datenverkehr über ein anderes Teilnetz aus und verwenden Sie den VLAN-GID-Index für RoCE v2.
Server#
ib_send_bw -d qedr0 -F -x 5
Client#
ib_send_bw -d qedr0 -F -x 5 192.168.100.3
91 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
Server-Switch-Einstellungen:
Abbildung 6-4. Switch-Einstellungen, Server
Client-Switch-Einstellungen:
Abbildung 6-5. Switch-Einstellungen, Client
92 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für Linux
Konfigurieren der Einstellungen von RoCE v1 oder RoCE v2 für
RDMA_CM-Anwendungen
Verwenden Sie zum Konfigurieren von RoCE die folgenden Scripts aus dem
FastLinQ-Quellpaket:
#
./show_rdma_cm_roce_ver.sh
qedr0 wird zu IB/RoCE V1 konfiguriert qedr1 wird zu IB/RoCE V1 konfiguriert
#
./config_rdma_cm_roce_ver.sh v2
configured rdma_cm for qedr0 to RoCE V2 configured rdma_cm for qedr1 to RoCE V2
Server-Einstellungen:
Abbildung 6-6. Konfigurieren der RDMA_CM-Anwendungen: Server
Client-Einstellungen:
Abbildung 6-7. Konfigurieren der RDMA_CM-Anwendungen: Client
93 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für VMware ESX
Konfigurieren von RoCE auf dem Adapter für
VMware ESX
In diesem Abschnitt finden Sie die folgenden Verfahren und Informationen zur
RoCE-Konfiguration:
Konfigurieren von RDMA-Schnittstellen
Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA)
Konfigurieren von RDMA-Schnittstellen
So konfigurieren Sie die RDMA-Schnittstellen:
1.
Installieren Sie die QLogic-NIC- und die RoCE-Treiber.
2.
Aktivieren Sie unter Verwendung des Modulparameters die RoCE-Funktion
über den NIC-Treiber, indem Sie den folgenden Befehl ausführen:
esxcfg-module -s 'enable_roce=1' qedentv
Um die Änderung anzuwenden, laden Sie den NIC-Treiber neu oder starten das System neu.
3.
Um eine Liste der NIC-Schnittstellen anzuzeigen, führen Sie den Befehl esxcfg-nics -l
aus. Zum Beispiel:
esxcfg-nics -l
Name PCI Driver Link Speed Duplex MAC Address MTU Description
Vmnic0 0000:01:00.2 qedentv Up 25000Mbps Full a4:5d:36:2b:6c:92 1500 QLogic Corp.
QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter
Vmnic1 0000:01:00.3 qedentv Up 25000Mbps Full a4:5d:36:2b:6c:93 1500 QLogic Corp.
QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter
4.
Um eine Liste der RDMA-Geräte anzuzeigen, führen Sie den Befehl esxcli rdma device list
aus. Zum Beispiel:
esxcli rdma device list
Name Driver State MTU Speed Paired Uplink Description
------- ------- ------ ---- ------- ------------- ------------------------------vmrdma0 qedrntv Active 1024 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface
94 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für VMware ESX
5.
Um einen neuen virtuellen Switch zu erstellen, führen Sie den folgenden
Befehl aus:
esxcli network vswitch standard add -v <Name neuer Switch>
Zum Beispiel:
#
esxcli network vswitch standard add -v roce_vs
Damit wird ein neuer virtueller Switch mit der Bezeichnung
roce_vs
erstellt.
6.
Um den QLogic NIC-Port mit dem virtuellen Switch zu verbinden, führen Sie den folgenden Befehl aus:
#
esxcli network vswitch standard uplink add -u <uplink device> -v <roce vswitch>
Zum Beispiel:
#
esxcli network vswitch standard uplink add -u vmnic0 -v roce_vs
7.
Um eine neue Port-Gruppe auf diesem virtuellen Switch zu erstellen, führen
Sie den folgenden Befehl aus:
#
esxcli network vswitch standard portgroup add -p roce_pg -v roce_vs
Zum Beispiel:
#
esxcli network vswitch standard portgroup add -p roce_pg -v roce_vs
8.
Um eine vmknic-Schnittstelle auf dieser Port-Gruppe zu erstellen und die IP zu konfigurieren, führen Sie den folgenden Befehl aus:
#
esxcfg-vmknic -a -i <IP address> -n <subnet mask> <roce port group name>
Zum Beispiel:
#
esxcfg-vmknic -a -i 192.168.10.20 -n 255.255.255.0 roce_pg
9.
Führen Sie zum Konfigurieren der VLAN-ID den folgenden Befehl aus:
#
esxcfg-vswitch -v <VLAN-ID> -p roce_pg
Konfigurieren Sie zum Ausführen des RoCE-Datenverkehrs mit der
VLAN-ID die VLAN-ID auf der entsprechenden VM-Kernel-Port-Gruppe.
95 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für VMware ESX
Konfigurieren von MTU
Ändern Sie zum Anpassen der MTU für die RoCE-Schnittstelle die MTU des entsprechenden virtuellen Switches. Setzen Sie die MTU-Größe der
RDMA-Schnittstelle auf Basis der MTU des virtuellen Switches fest, indem Sie den folgenden Befehl ausführen:
#
esxcfg-vswitch -m <neue MTU> <RoCE vswitch name>
Zum Beispiel:
#
esxcfg-vswitch -m 4000 roce_vs
# esxcli rdma device list
Name Driver State MTU Speed Paired Uplink Description
------- ------- ------ ---- ------- ------------- ------------------------------vmrdma0 qedrntv Active 2048 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface
RoCE-Modus und Statistikdaten
Für den ordnungsgemäßen Betrieb des RoCE-Modus ist für ESXi eine gleichzeitige
Unterstützung von RoCE in Version 1 und Version 2 erforderlich. Die Entscheidung in Bezug darauf, welcher RoCE-Modus verwendet wird, wird während der
Erstellung des Warteschlangenpaares getroffen. Der ESXi-Treiber bewirbt während der Registrierung und Initialisierung beide Modi. Führen Sie zum Anzeigen der
RoCE-Statistikdaten den folgenden Befehl aus:
#
esxcli rdma device stats get -d vmrdma0
Packets received: 0
Packets sent: 0
Bytes received: 0
Bytes sent: 0
Error packets received: 0
Error packets sent: 0
Error length packets received: 0
Unicast packets received: 0
Multicast packets received: 0
Unicast bytes received: 0
Multicast bytes received: 0
Unicast packets sent: 0
Multicast packets sent: 0
Unicast bytes sent: 0
Multicast bytes sent: 0
Queue pairs allocated: 0
Queue pairs in RESET state: 0
Queue pairs in INIT state: 0
96 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für VMware ESX
Queue pairs in RTR state: 0
Queue pairs in RTS state: 0
Queue pairs in SQD state: 0
Queue pairs in SQE state: 0
Queue pairs in ERR state: 0
Queue pair events: 0
Completion queues allocated: 1
Completion queue events: 0
Shared receive queues allocated: 0
Shared receive queue events: 0
Protection domains allocated: 1
Memory regions allocated: 3
Address handles allocated: 0
Memory windows allocated: 0
Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA)
So konfigurieren Sie ein PVRDMA über die vCenter-Schnittstelle:
1.
Erstellen und konfigurieren Sie wie folgt einen neuen, verteilten virtuellen Switch: a.
Klicken Sie im VMware vSphere-Web-Client mit der rechten Maustaste auf den Knoten
RoCE
im linken Fensterbereich des Navigator-Fensters.
b.
Zeigen Sie im Menü „Actions“ (Aktionen) auf
Distributed Switch
(Verteilter Switch) und klicken Sie dann auf
New Distributed Switch
(Neuer verteilter Switch).
c.
Wählen Sie Version 6.5.0 aus.
d.
Klicken Sie unter
New Distributed Switch
(Neuer verteilter Switch) auf
Edit settings
(Einstellungen bearbeiten) und konfigurieren Sie dann die folgenden Elemente:
Number of uplinks
(Anzahl der Uplinks). Wählen Sie einen entsprechenden Wert aus.
Network I/O Control
(Netzwerk-E/A-Kontrolle). Wählen Sie
Disabled
(Deaktiviert) aus.
Default port group
(Standard-Port-Gruppe). Aktivieren Sie dieses Kontrollkästchen.
Port group name
(Port-Gruppenname). Geben Sie einen
Namen für die Port-Gruppe ein.
Abbildung 6-8 zeigt ein Beispiel.
97 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für VMware ESX
Abbildung 6-8. Konfigurieren eines neuen verteilten Switches
2.
Konfigurieren Sie einen verteilten virtuellen Switch wie folgt: a.
Erweitern Sie im VMware vSphere-Web-Client den Knoten
RoCE
im linken Fensterbereich des Navigator-Fensters.
b.
Klicken Sie mit der rechten Maustaste auf
RoCE-VDS
und dann auf
Add and Manage Hosts
(Hosts hinzufügen und verwalten).
c.
Konfigurieren Sie unter
Add and Manage Hosts
(Hosts hinzufügen und verwalten) Folgendes:
Assign uplinks
(Uplinks zuweisen). Wählen Sie aus der Liste der verfügbaren Uplinks aus.
Manage VMkernel network adapters
(VM-Kernel-Netzwerkadapter verwalten). Übernehmen Sie den
Standardwert und klicken Sie dann auf
Next
(Weiter).
Migrate VM networking
(VM-Netzwerk migrieren). Weisen Sie
die Port-Gruppe zu, die Sie in Schritt 1 erstellt haben.
3.
Weisen Sie eine vmknic für PVRDMA zur Verwendung auf ESX-Hosts zu: a.
Klicken Sie mit der rechten Maustaste auf einen Host und dann auf
Settings
(Einstellungen).
b.
Erweitern Sie auf der Seite „Settings“ (Einstellungen) den Knoten
System
(System) und klicken Sie dann auf
Advanced System
Settings
(Erweiterte Systemeinstellungen).
c.
Daraufhin wird die Seite „Advanced System Settings“ (Erweiterte
Systemeinstellungen) mit dem Schlüsselpaarwert und dessen
Zusammenfassung angezeigt. Klicken Sie auf
Edit
(Bearbeiten).
d.
Filtern Sie auf der Seite „Edit Advanced System Settings“ (Erweiterte
Systemeinstellungen bearbeiten) nach
PVRDMA
, um alle
Einstellungen auf „Net.PVRDMAVmknic“ einzugrenzen.
98 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für VMware ESX e.
Setzen Sie den Wert
Net.PVRDMAVmknic
auf
vmknic
; Beispiel:
vmk1
.
Abbildung 6-9 zeigt ein Beispiel.
Abbildung 6-9. Zuweisen eines vmknic für PVRDMA
4.
Legen Sie die Firewall-Regel für PVRDMA fest: a.
Klicken Sie mit der rechten Maustaste auf einen Host und dann auf
Settings
(Einstellungen).
b.
Erweitern Sie auf der Seite „Settings“ (Einstellungen) den Knoten
System
(System) und klicken Sie dann auf
Security Profile
(Sicherheitsprofil).
c.
Klicken Sie auf der Seite „Firewall Summary“
(Firewall-Zusammenfassung) auf
Edit
(Bearbeiten).
d.
Scrollen Sie im Dialogfeld „Edit Security Profile“ (Sicherheitsprofil bearbeiten) unter
Name
(Name) herunter, aktivieren Sie das
Kontrollkästchen
pvrdma
und aktivieren Sie dann das
Kontrollkästchen
Set Firewall
(Firewall festlegen).
Abbildung 6-10 zeigt ein Beispiel.
99 AH0054602-01 F
6–RoCE-Konfiguration
Konfigurieren von RoCE auf dem Adapter für VMware ESX
Abbildung 6-10. Festlegen der Firewall-Regel
5.
Richten Sie die virtuelle Maschine für PVRDMA wie folgt ein: a.
Installieren Sie eines der folgenden unterstützten Gastbetriebssysteme:
RHEL 7.2
Ubuntu 14.04 (Kernel-Version 4.0) b.
Installieren Sie OFED-3.18.
c.
Kompilieren und installieren Sie den PVRDMA-Gastreiber und die zugehörige Bibliothek.
d.
Fügen Sie einen neuen PVRDMA-Netzwerkadapter wie folgt zur virtuellen Maschine hinzu:
Bearbeiten Sie die Einstellungen der virtuellen Maschine.
Fügen Sie einen neuen Adapter hinzu.
Wählen Sie die neu hinzugefügte DVS-Port-Gruppe als
Network
(Netzwerk) aus.
Wählen Sie
PVRDMA
als Adaptertyp aus.
e.
Nachdem die virtuelle Maschine gestartet wurde, stellen Sie sicher, dass der PVRDMA-Gästetreiber geladen wird.
100 AH0054602-01 F
7
iWARP-Konfiguration
iWARP (Internet Wide Area RDMA Protocol) ist ein Computernetzwerkprotokoll, das RDMA für eine effiziente Datenübertragung über IP-Netzwerke implementiert. iWARP wurde für mehrere Umgebungen konzipiert, darunter LANs,
Speichernetzwerke, Rechenzentrumsnetzwerke und WANs.
In diesem Kapitel finden Sie Anweisungen für Folgendes:
Vorbereiten des Adapters auf iWARP
„Konfigurieren von iWARP unter Windows“ auf Seite 102
„Konfigurieren von iWARP unter Linux“ auf Seite 105
ANMERKUNG
Einige iWARP-Funktionen sind in der aktuellen Version möglicherweise
nicht vollständig aktiviert. Weitere Details finden Sie unter Anhang D
Einschränkungen bei Merkmalen und Funktionen .
Vorbereiten des Adapters auf iWARP
Dieser Abschnitt enthält Anweisungen für die Adapter-iWARP-Konfiguration vor dem Start über HII. Weitere Informationen zur Adapterkonfiguration vor dem Start finden Sie unter
Kapitel 5 Adapterkonfiguration vor dem Start
.
So konfigurieren Sie iWARP über HII im Modus „Default“ (Standard):
1.
Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf
Device Settings
(Geräteeinstellungen).
2.
Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) einen Port für den 25-G-Adapter der 41
xxx
-Serie.
3.
Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) für den ausgewählte Adapter auf
NIC Configuration
(NIC-Konfiguration).
4.
Führen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die folgenden Schritte aus: a.
Setzen Sie das Feld
NIC + RDMA Mode
(NIC- + RDMA-Modus) auf
Enabled
(Aktiviert).
101 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Windows b.
Setzen Sie das Feld
RDMA Protocol Support
(RDMA-Protokollunterstützung) auf
iWARP
.
c.
Klicken Sie auf
Back
(Zurück).
5.
Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf
Finish
(Fertigstellen).
6.
Wenn das Nachrichtenfeld „Warning - Saving Changes“ (Warnung –
Änderungen werden gespeichert) angezeigt wird, klicken Sie zum Speichern der Konfiguration auf
Yes
(Ja).
7.
Klicken Sie im Nachrichtenfeld „Success - Saving Changes“ (Erfolg –
Änderungen werden gespeichert) auf
OK
.
8.
Wiederholen Sie
bis
, um die NIC und iWARP für die anderen Ports zu konfigurieren.
9.
So schließen Sie die Adaptervorbereitung für beide Ports ab: a.
Klicken Sie auf der Seite „Device Settings“ (Geräteeinstellungen) auf
Finish
(Fertigstellen). b.
Klicken Sie im Hauptmenü auf
Finish
(Fertigstellen).
c.
Schließen Sie das Menü, um das System neu zu starten.
Fahren Sie mit
„Konfigurieren von iWARP unter Windows“ auf Seite 102
oder
„Konfigurieren von iWARP unter Linux“ auf Seite 105
fort.
Konfigurieren von iWARP unter Windows
Dieser Abschnitt erläutert die Abläufe für das Aktivieren von iWARP, das
Überprüfen von RDMA und das Überprüfen des iWARP-Datenverkehrs unter
Windows. Eine Liste aller unterstützten Betriebssysteme finden Sie unter
.
So aktivieren Sie iWARP auf dem Windows-Host und überprüfen RDMA:
1.
Aktivieren Sie iWARP auf dem Windows-Host.
a.
Öffnen Sie den Geräte-Manager von Windows und rufen Sie die
Adapter der 41
xxx
-Serie NDIS Miniport-Eigenschaften auf.
b.
Klicken Sie in den Eigenschaften für den FastLinQ-Adapter auf die
Registerkarte
Advanced
(Erweitert).
c.
Führen Sie auf der Seite „Advanced“ (Erweitert) unter
Property
(Eigenschaft)
die folgenden Schritte aus:
Wählen Sie
Network Direct Functionality
(Network
Direct-Funktionalität) und dann
Enabled
(Aktiviert) für
Value
(Wert) aus.
102 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Windows
Wählen Sie
RDMA Mode
(RDMA-Modus) und wählen Sie dann
iWARP
als
Value
(Wert).
d.
Klicken Sie auf die Schaltfläche
OK
, um die Änderungen zu speichern und das Dialogfeld mit den Adaptereigenschaften zu schließen.
2.
Überprüfen Sie unter Verwendung von Windows PowerShell, dass RDMA aktiviert ist. Die Befehlsausgabe
Get-NetAdapterRdma
(
) zeigt die Adapter, die RDMA unterstützen.
Abbildung 7-1. Windows PowerShell-Befehl: Get-NetAdapterRdma
3.
Stellen Sie unter Verwendung von Windows PowerShell sicher, dass
NetworkDirect
aktiviert ist. Die Befehlsausgabe
Get-NetOffloadGlobalSetting
) zeigt
NetworkDirect
als
Enabled
(Aktiviert).
Abbildung 7-2. Windows PowerShell-Befehl: Get-NetOffloadGlobalSetting
So überprüfen Sie den iWARP-Datenverkehr:
1.
Ordnen Sie SMB-Laufwerke zu und führen Sie iWARP-Datenverkehr aus.
2.
Starten Sie die Leistungsüberwachung (Perfmon).
3.
Klicken Sie im Dialogfeld „Add Counters“ (Zähler hinzufügen) auf
RDMA
Activity
(RDMA-Aktivität) und wählen Sie die Adapterinstanzen aus.
zeigt ein Beispiel.
103 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Windows
Abbildung 7-3. Perfmon: Zähler hinzufügen
Wenn der iWARP-Datenverkehr ausgeführt wird, werden Zähler gemäß dem
Beispiel in Abbildung 7-4 angezeigt.
Abbildung 7-4. Perfmon: Überprüfen des iWARP-Datenverkehrs
104 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Linux
ANMERKUNG
Weitere Informationen zum Verfahren für die Anzeige von Cavium
RDMA-Zählern unter Windows finden Sie unter „Anzeigen von
.
4.
So überprüfen Sie die SMB-Verbindung: a.
Führen Sie an einer Befehlseingabe den Befehl net use
wie folgt aus:
C:\Users\Administrator>
net use
New connections will be remembered.
Status Local Remote Network
---------------------------------------------------------
OK F: \\192.168.10.10\Share1
The command completed successfully.
Microsoft Windows Network b.
Führen Sie den Befehl net -xan
wie folgt aus, wobei
Share1
als
SMB-Freigabe verknüpft ist:
C:\Users\Administrator>
net -xan
Active NetworkDirect Connections, Listeners, ShareEndpoints
Mode IfIndex Type Local Address Foreign Address PID
Kernel
Kernel
60 Listener [fe80::e11d:9ab5:a47d:4f0a%56]:445 NA
60 Listener [fe80::71ea:bdd2:ae41:b95f%60]:445 NA
0
0
0
Konfigurieren von iWARP unter Linux
QLogic Adapter der 41
xxx
-Serie unterstützen iWARP auf Linux Open Fabric
Enterprise-Distributionen (OFEDs), die unter
Tabelle 6-1 auf Seite 69 aufgeführt
werden.
Die iWARP-Konfiguration auf einem Linux-System umfasst Folgendes:
Konfigurieren von iWARP und RoCE
105 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Linux
Unterstützte iWARP-Anwendungen
Ausführen des Befehls „Perftest“ für iWARP
iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und OFED
Installieren des Treibers
Installieren Sie die RDMA-Treiber wie unter
beschrieben.
Konfigurieren von iWARP und RoCE
ANMERKUNG
Dieses Verfahren gilt nur, wenn Sie zuvor im Rahmen der Konfiguration vor dem Start
iWARP+RoCE
als Wert für den Parameter für die
RDMA-Protokollunterstützung unter Verwendung von HII ausgewählt haben
(siehe
Konfigurieren von NIC-Parametern ,
So konfigurieren Sie iWARP und RoCE:
1.
Alle FastlinQ-Treiber entladen
#
modprobe -r qedr or modprobe -r qede
2.
Verwenden Sie die folgende Befehlssyntax, um das RDMA-Protokoll durch das Laden des qed
-Treibers mit einer Port-Schnittstellen-PCI-ID ( xx:xx.x
) und eines RDMA-Protokollwerts (
p
) zu ändern.
#modprobe -v qed rdma_protocol_map=<xx:xx.x-p>
Die Werte für das RDMA-Protokoll ( p
) lauten wie folgt:
0: Standardwerte übernehmen (RoCE)
1: Kein RDMA
2: RoCE
3: iWARP
Führen Sie beispielsweise den folgenden Befehl aus, um die Schnittstelle auf dem von 04:00.0 zur Verfügung gestellten Port von RoCE in iWARP zu ändern.
#
modprobe -v qed rdma_protocol_map=04:00.0-3
3.
Laden Sie den RDMA-Treiber, indem Sie den folgenden Befehl ausführen:
#
modprobe -v qedr
106 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Linux
Das folgende Beispiel zeigt die Befehlseingaben zum Ändern des RDMA-Protokolls in iWARP auf mehreren NPAR-Schnittstellen:
#
modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3,
04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.7-3
#
modprobe -v qedr
#
ibv_devinfo |grep iWARP
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
Erkennen des Geräts
So erkennen Sie das Gerät:
1.
Um zu überprüfen, ob RDMA-Geräte erkannt werden, prüfen Sie die folgenden dmesg
-Protokolle:
#
dmesg |grep qedr
[10500.191047] qedr 0000:04:00.0: registered qedr0
[10500.221726] qedr 0000:04:00.1: registered qedr1
2.
Führen Sie den Befehl ibv_devinfo
aus und überprüfen Sie dann den
Übermittlungstyp.
Wird der Befehl erfolgreich ausgeführt, wird für jede PCI-Funktion eine getrennte hca_id
angezeigt. Beispiel (wenn Sie den zweiten Port des oben genannten Dual-Port-Adapters überprüfen):
[root@localhost ~]#
ibv_devinfo -d qedr1
hca_id: qedr1
transport: iWARP (1)
fw_ver: 8.14.7.0
node_guid: 020e:1eff:fec4:c06e
sys_image_guid: 020e:1eff:fec4:c06e
vendor_id: 0x1077
vendor_part_id: 5718
hw_ver: 0x0
phys_port_cnt: 1
port: 1
state: PORT_ACTIVE (4)
max_mtu: 4096 (5)
107 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Linux
active_mtu: 1024 (3)
sm_lid: 0
port_lid: 0
port_lmc: 0x00
link_layer: Ethernet
Unterstützte iWARP-Anwendungen
Zu den von Linux unterstützten RDMA-Anwendungen für iWARP gehören:
ibv_devinfo, ib_devices
ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat
Bei iWARP müssen alle Anwendungen den
RDMA-Kommunikationsmanager (rdma_cm) über die Option
-R
verwenden.
rdma_server, rdma_client
rdma_xserver, rdma_xclient
rping
NFS over RDMA (NFSoRDMA)
iSER (Details finden Sie unter
Kapitel 8 iSER-Konfiguration )
NVMe-oF (weitere Details finden Sie unter
NVMe-oF-Konfiguration mit RDMA
)
Ausführen des Befehls „Perftest“ für iWARP
Alle Perftest-Werkzeuge werden für den iWARP-Übermittlungstyp unterstützt.
Sie müssen die Werkzeuge über den RDMA-Verbindungsmanager (über die
Option
-R
) ausführen.
Beispiel:
1.
Führen Sie auf einem Server den folgenden Befehl (unter Verwendung des zweiten Ports in diesem Beispiel) aus:
#
ib_send_bw -d qedr1 -F -R
2.
Führen Sie auf einem Client den folgenden Befehl (unter Verwendung des zweiten Ports in diesem Beispiel) aus:
[root@localhost ~]#
ib_send_bw -d qedr1 -F -R 192.168.11.3
----------------------------------------------------------------------------
Send BW Test
Dual-port : OFF Device : qedr1
Number of qps : 1 Transport type : IW
Connection type : RC Using SRQ : OFF (AUS)
TX depth : 128
108 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Linux
CQ Moderation : 100
Mtu : 1024[B]
Link type : Ethernet
GID index : 0
Max inline data : 0[B]
rdma_cm QPs : ON
Data ex. method : rdma_cm
----------------------------------------------------------------------------
local address: LID 0000 QPN 0x0192 PSN 0xcde932
GID: 00:14:30:196:192:110:00:00:00:00:00:00:00:00:00:00
remote address: LID 0000 QPN 0x0098 PSN 0x46fffc
GID: 00:14:30:196:195:62:00:00:00:00:00:00:00:00:00:00
----------------------------------------------------------------------------
#bytes #iterations BW peak[MB/sec] BW average[MB/sec] MsgRate[Mpps]
65536 1000 2250.38 2250.36 0.036006
----------------------------------------------------------------------------
ANMERKUNG
Wenn bei Latenzanwendungen (Senden/Schreiben) die Perftest-Version aktuell ist (z. B. perftest-3.0-0.21.g21dc344.x86_64.rpm
), verwenden
Sie den unterstützten Wert für die Inline-Größe:
0-128
.
Konfigurieren von NFS-RDMA
NFS-RDMA für iWARP umfasst sowohl Server- als auch
Client-Konfigurationsschritte.
So konfigurieren Sie den NFS-Server:
1.
Nehmen Sie in der Datei
/etc/exports
für die Verzeichnisse, die Sie über
NFS-RDMA auf dem Server exportieren müssen, den folgenden Eintrag vor:
/tmp/nfs-server *(fsid=0,async,insecure,no_root_squash)
Stellen Sie sicher, dass Sie für jedes Verzeichnis, das Sie exportieren, eine andere Dateisystemidentifizierung (FSID) verwenden.
2.
Laden Sie das Modul „svcrdma“ wie folgt:
#
modprobe svcrdma
3.
Starten Sie den NFS-Dienst ohne Fehler:
#
service nfs start
109 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Linux
4.
Schließen Sie den Standard-RDMA-Port 20049 wie folgt in diese Datei ein:
#
echo rdma 20049 > /proc/fs/nfsd/portlist
5.
Um lokale Verzeichnisse für zu mountende NFS-Clients verfügbar zu machen, führen Sie den Befehl exportfs
wie folgt aus:
#
exportfs -v
So konfigurieren Sie den NFS-Client:
ANMERKUNG
Dieses Verfahren für die NFS-Client-Konfiguration gilt auch für RoCE.
1.
Laden Sie das Modul „xprtrdma“ wie folgt:
#
modprobe xprtrdma
2.
Mounten Sie das NFS-Dateisystem so, wie es sich für Ihre Version eignet:
Für NFS Version 3:
#
mount -o rdma,port=20049 192.168.2.4:/tmp/nfs-server /tmp/nfs-client
Für NFS Version 4:
#
mount -t nfs4 -o rdma,port=20049 192.168.2.4:/ /tmp/nfs-client
ANMERKUNG
Der Standard-Port für NFSoRDMA ist 20049. Jedoch funktioniert auch jeder andere Port, der am NFS-Client ausgerichtet wird.
3.
Überprüfen Sie, dass das Dateisystem gemounted wurde. Führen Sie dazu den Befehl mount
aus. Stellen Sie sicher, dass der RDMA-Port und die
Dateisystemversionen korrekt sind.
#
mount |grep rdma
110 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Linux
iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und OFED 4.8
x
Die Benutzerbereichsbibliothek „libqedr“ ist Teil des rdma-Kerns. Die vorkonfigurierte libqedr bietet jedoch keine Unterstützung für SLES 12 SP3,
RHEL 7.4 und OFED 4.8
x
. Für diese BS-Versionen ist daher ein Patch erforderlich, um den iWARP-RDMA-Kern zu unterstützen.
So wenden Sie das Patch für den iWARP-RDMA-Kern an:
1.
Um die aktuelle RDMA-Kern-Quelldatei herunterzuladen, führen Sie den folgenden Befehl aus:
#
git clone https://github.com/linux-rdma/rdma-core.git
2.
Installieren Sie alle BS-abhängigen Pakete/Bibliotheken, wie in der Infodatei zum
RDMA-Kern
beschrieben.
Führen Sie bei RHEL und CentOS den folgenden Befehl aus:
#
yum install cmake gcc libnl3-devel libudev-devel make pkgconfig valgrind-devel
Installieren Sie für SLES 12 SP3 (ISO/SDK-Kit) die folgenden RPMs: cmake-3.5.2-18.3.x86_64.rpm
(OS ISO) libnl-1_1-devel-1.1.4-4.21.x86_64.rpm
(SDK ISO) libnl3-devel-3.2.23-2.21.x86_64.rpm
(SDK ISO)
3.
Um den RDMA-Kern zu erstellen, führen Sie die folgenden Befehle aus:
#
cd
<rdma-core-path>/r
dma-core-master/
#
./build.sh
4.
Um alle OFED-Anwendungen im aktuellen RDMA-Kern-Masterspeicherort auszuführen, führen Sie den folgenden Befehl aus:
#
ls
<
rdma-core-master>/
build/bin
cmpost ib_acme ibv_devinfo ibv_uc_pingpong iwpmd rdma_client rdma_xclient rping ucmatose umad_compile_test cmtime ibv_asyncwatch ibv_rc_pingpong ibv_ud_pingpong mckey rdma-ndd rdma_xserver rstream udaddy umad_reg2 ibacm ibv_devices ibv_srq_pingpong ibv_xsrq_pingpong rcopy rdma_server riostream srp_daemon udpong umad_register2
Führen Sie die Anwendungen aus dem aktuellen
RDMA-Kern-Masterspeicherort aus. Zum Beispiel:
#
./rping -c -v -C 5 -a 192.168.21.3
ping data: rdma-ping-0: ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqr ping data: rdma-ping-1: BCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrs
111 AH0054602-01 F
7–iWARP-Konfiguration
Konfigurieren von iWARP unter Linux ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT...
5.
Um Inbox-OFED-Anwendungen auszuführen, z. B. perftest oder andere
InfiniBand-Anwendungen, führen Sie den folgenden Befehl aus, um den
Bibliothekspfad für iWARP festzulegen:
#
export
LD_LIBRARY_PATH=/builds/rdma-core-path-iwarp/rdma-core-master/build/lib
Zum Beispiel:
#
/usr/bin/rping -c -v -C 5 -a 192.168.22.3 (or) rping -c -v -C 5 -a
192.168.22.3
ping data: rdma-ping-0: ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqr ping data: rdma-ping-1: BCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrs ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT...
112 AH0054602-01 F
8
iSER-Konfiguration
In diesem Kapitel wird das Verfahren für die Konfiguration von iSCSI-Erweiterungen für RDMA (iSER) für Linux (RHEL und SLES) und
ESXi 6.7 beschrieben, darunter:
Konfigurieren von iSER für RHEL
“Konfigurieren von iSER für SLES 12” auf Seite 117
“Verwenden von iSER mit iWARP auf RHEL und SLES” auf Seite 118
“Optimieren der Linux-Leistung” auf Seite 120
“Konfigurieren von iSER auf SLES 6.7” auf Seite 121
Vor dem Start
Berücksichtigen Sie im Rahmen der iSER-Konfigurationsvorbereitung Folgendes:
iSER wird nur in Inbox-OFED-Umgebungen und nur für die folgenden
Betriebssysteme unterstützt:
RHEL 7.1 und 7.2
SLES 12 und 12 SP1
Nach dem Anmelden an den Zielen oder während der Ausführung von
E/A-Datenverkehr kann das Entladen des Linux RoCE qedr-Treibers einen
Systemabsturz verursachen.
Während der Ausführung von E/A kann die Durchführung von
Schnittstellentests (aus/ein) oder Kabelzugtests zu Treiberfehlern oder iSER-Modulfehlern führen, die einen Systemabsturz auslösen können. Falls dies der Fall ist, starten Sie das System neu.
113 AH0054602-01 F
8–iSER-Konfiguration
Konfigurieren von iSER für RHEL
Konfigurieren von iSER für RHEL
So konfigurieren Sie iSER für RHEL:
1.
Installieren Sie Inbox-OFED wie unter “RoCE-Konfiguration für RHEL” auf
Seite 84 beschrieben. Vorkonfigurierte OFEDs werden nicht für iSER
unterstützt, da das ib_isert-Modul nicht für die vorkonfigurierten OFED
3.18-2 GA/3.18-3 GA-Versionen verfügbar ist. Das inbox ib_isert-Modul funktioniert mit keiner der Out-of-box-OFED-Versionen.
2.
Entfernen Sie etwaig vorhandene FastLinQ-Treiber wie unter “Entfernen der
Linux-Treiber” auf Seite 10 beschrieben.
3.
Installieren Sie den neuesten FastLinQ-Treiber und die libqedr-Pakete wie in
“Installieren der Linux-Treiber mit RDMA” auf Seite 15 beschrieben.
4.
Laden Sie die RDMA-Dienste wie folgt:
systemctl start rdma modprobe qedr modprobe ib_iser modprobe ib_isert
5.
Stellen Sie sicher, dass alle RDMA- und iSER-Module auf die Initiator- und
Zielgeräte geladen wurden, indem Sie die Befehle lsmod | grep qed
und lsmod | grep iser
ausführen.
6.
Stellen Sie sicher, dass separate hca_id
-Instanzen vorhanden sind, indem
Sie den Befehl ibv_devinfo
eingeben, wie unter Schritt 6 auf Seite 86
beschrieben.
7.
Überprüfen Sie die RDMA-Verbindung auf dem Initiatorgerät und auf dem
Zielgerät.
a.
Führen Sie auf dem Initiatorgerät den folgenden Befehl aus:
rping -s -C 10 -v
b.
Führen Sie auf dem Zielgerät den folgenden Befehl aus:
rping -c -a 192.168.100.99 -C 10 -v
114 AH0054602-01 F
8–iSER-Konfiguration
Konfigurieren von iSER für RHEL
enthält ein Beispiel für einen erfolgreichen
RDMA-Ping-Befehl.
Abbildung 8-1. RDMA-Ping-Befehl erfolgreich
8.
Sie können ein Linux TCM-LIO-Ziel zum Testen von iSER verwenden. Das
Setup ist für alle iSCSI-Ziele gleich, mit der Ausnahme, dass Sie den Befehl enable_iser Boolean=true
auf den jeweiligen Portalen ausführen müssen. Die Portalinstanzen werden als
iser
in Abbildung 8-2 identifiziert.
Abbildung 8-2. iSER-Portal-Instanzen
9.
Installieren Sie die Linux iSCSI-Initiator-Dienstprogramme unter
Verwendung der yum install iscsi-initiator-utils
-Befehle.
a.
Um das iSER-Ziel zu ermitteln, führen Sie den Befehl iscsiadm
aus.
Zum Beispiel:
iscsiadm -m discovery -t st -p 192.168.100.99:3260
115 AH0054602-01 F
8–iSER-Konfiguration
Konfigurieren von iSER für RHEL b.
Um den Übermittlungsmodus in iSER zu ändern, führen Sie den
Befehl iscsiadm
aus. Zum Beispiel:
iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser
c.
Um eine Verbindung mit dem iSER-Ziel herzustellen oder sich dort anzumelden, führen Sie den Befehl iscsiadm
aus. Zum Beispiel:
iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1
d.
Stellen Sie sicher, dass
Iface Transport
in der Zielverbindung
iser
lautet, wie unter
Abbildung 8-3 dargestellt. Führen Sie den Befehl
iscsiadm
aus. Beispiel:
iscsiadm -m session -P2
Abbildung 8-3. Iface-Transport bestätigt
116 AH0054602-01 F
8–iSER-Konfiguration
Konfigurieren von iSER für SLES 12 e.
Um zu überprüfen, ob ein neues iSCSI-Gerät vorhanden ist, wie unter
Abbildung 8-4 dargestellt, führen Sie den Befehl
lsscsi
aus.
Abbildung 8-4. Überprüfen auf neues iSCSI-Gerät
Konfigurieren von iSER für SLES 12
Da das TargetCLI auf SLES 12.
x
nicht „inbox“ lautet, müssen Sie das folgende
Verfahren ausführen.
Gehen Sie wie folgt vor, um iSER für SLES 12 zu konfigurieren:
1.
Um TargetCLI zu installieren, kopieren und installieren Sie die folgenden
RPM-Dateien aus dem ISO-Image (Speicherorte x86_64 und noarch): lio-utils-4.1-14.6.x86_64.rpm
python-configobj-4.7.2-18.10.noarch.rpm
python-PrettyTable-0.7.2-8.5.noarch.rpm
python-configshell-1.5-1.44.noarch.rpm
python-pyparsing-2.0.1-4.10.noarch.rpm
python-netifaces-0.8-6.55.x86_64.rpm python-rtslib-2.2-6.6.noarch.rpm
python-urwid-1.1.1-6.144.x86_64.rpm
targetcli-2.1-3.8.x86_64.rpm
2.
Bevor Sie TargetCLI starten, laden Sie sämtliche RoCE-Gerätetreiber und iSER-Module wie folgt:
#
modprobe qed
#
modprobe qede
#
modprobe qedr
#
modprobe ib_iser
(Initiator)
#
modprobe ib_isert
(Ziel)
3.
Bevor Sie iSER-Ziele konfigurieren, konfigurieren Sie NIC-Schnittstellen und
führen L2- und RoCE-Datenverkehr, wie unter Schritt 7 auf Seite 86
beschrieben.
117 AH0054602-01 F
8–iSER-Konfiguration
Verwenden von iSER mit iWARP auf RHEL und SLES
4.
Starten Sie das TargetCLI-Dienstprogramm und konfigurieren Sie Ihre Ziele auf dem iSER-Zielsystem.
ANMERKUNG
Die TargetCLI-Versionen in RHEL und SLES unterscheiden sich.
Stellen Sie sicher, dass Sie die richtigen Backstores für die
Konfiguration Ihrer Ziele verwenden:
RHEL verwendet
ramdisk
.
SLES verwendet
rd_mcp
.
Verwenden von iSER mit iWARP auf RHEL und
SLES
Konfigurieren Sie den iSER-Initiator und das Ziel für die Zusammenarbeit mit iWARP auf ähnliche Weise wie RoCE. Sie können verschiedene Verfahren für die
Erstellung eines Linux-IO-Ziels (LIO
™
) verwenden. Eines dieser Verfahren wird in diesem Abschnitt aufgeführt. Sie werden aufgrund der Version möglicherweise
Unterschiede in der targetcli-Konfiguration in SLES 12 und RHEL 7.
x
feststellen.
So konfigurieren Sie ein Ziel für LIO:
1.
Erstellen Sie ein LIO-Ziel mithilfe des targetcli-Dienstprogramms. Geben Sie den folgenden Befehl aus:
#
targetcli
targetcli shell version 2.1.fb41
Copyright 2011-2013 by Datera, Inc and others.
For help on commands, type
' help
'
.
2.
Geben Sie die folgenden Befehle aus:
/>
/backstores/ramdisk create Ramdisk1-1 1g nullio=true
/>
/iscsi create iqn.2017-04.com.org.iserport1.target1
/> /
iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/luns create /backstores/ramdisk/Ramdisk1-1
/> /
iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/portals/ create 192.168.21.4 ip_port=3261
/>
/iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/portals/192.168.21.4:3261 enable_iser boolean=true
/>
/iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1 set attribute authentication=0 demo_mode_write_protect=0 generate_node_acls=1 cache_dynamic_acls=1
/>
saveconfig
118 AH0054602-01 F
8–iSER-Konfiguration
Verwenden von iSER mit iWARP auf RHEL und SLES
zeigt die Zielkonfiguration für LIO.
Abbildung 8-5. LIO-Zielkonfiguration
So konfigurieren Sie einen Initiator für iWARP:
1.
Um das iSER-LIO-Ziel über Port 3261 zu ermitteln, führen Sie den Befehl iscsiadm
wie folgt aus:
#
iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser
192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1
2.
Ändern Sie den Übermittlungstyp wie folgt in iser
:
#
iscsiadm -m node -o update -T iqn.2017-04.com.org.iserport1.target1 -n iface.transport_name -v iser
3.
Melden Sie sich über Port 3261 beim Ziel an:
#
iscsiadm -m node -l -p 192.168.21.4:3261 -T iqn.2017-04.com.org.iserport1.target1
Logging in to [iface: iser, target: iqn.2017-04.com.org.iserport1.target1, portal: 192.168.21.4,3261] (multiple)
Login to [iface: iser, target: iqn.2017-04.com.org.iserport1.target1, portal:
192.168.21.4,3261] successful.
4.
Stellen Sie sicher, dass diese LUNs sichtbar sind, indem Sie den folgenden
Befehl ausführen:
#
lsscsi
[1:0:0:0] storage HP P440ar 3.56 -
[1:1:0:0] disk HP LOGICAL VOLUME 3.56 /dev/sda
[6:0:0:0] cd/dvd hp DVD-ROM DUD0N UMD0 /dev/sr0
[7:0:0:0] disk LIO-ORG Ramdisk1-1 4.0 /dev/sdb
119 AH0054602-01 F
8–iSER-Konfiguration
Optimieren der Linux-Leistung
Optimieren der Linux-Leistung
Berücksichtigen Sie die folgenden Verbesserungen der
Linux-Leistungskonfiguration, wie in diesem Abschnitt beschrieben.
Konfigurieren von CPUs in den Modus für die maximale Leistung
Konfigurieren von Kernel-sysctl-Einstellungen
Konfigurieren der IRQ-Affinitätseinstellungen
Konfigurieren der Blockgerätestaffelung
Konfigurieren von CPUs in den Modus für die maximale
Leistung
Setzen Sie „CPU Scaling Governor auf“ „Performance“ (Leistung), indem Sie das folgende Script verwenden, um alle CPUs in den Modus für die maximale
Leistung zu setzen: for CPUFREQ in
/sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f
$CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done
Überprüfen Sie, ob alle CPU-Kerne in den Modus für die maximale Leistung gesetzt wurden, indem Sie folgenden Befehl ausführen:
cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
Konfigurieren von Kernel-sysctl-Einstellungen
Legen Sie die kernel sysctl-Einstellungen wie folgt fest: sysctl -w net.ipv4.tcp_mem="4194304 4194304 4194304" sysctl -w net.ipv4.tcp_wmem="4096 65536 4194304" sysctl -w net.ipv4.tcp_rmem="4096 87380 4194304" sysctl -w net.core.wmem_max=4194304 sysctl -w net.core.rmem_max=4194304 sysctl -w net.core.wmem_default=4194304 sysctl -w net.core.rmem_default=4194304 sysctl -w net.core.netdev_max_backlog=250000 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_adv_win_scale=1 echo 0 > /proc/sys/vm/nr_hugepages
120 AH0054602-01 F
8–iSER-Konfiguration
Konfigurieren von iSER auf SLES 6.7
Konfigurieren der IRQ-Affinitätseinstellungen
In diesem Beispiel werden die CPU-Kerne 0, 1, 2 und 3 auf Unterbrechungsanfrage
(IRQ) XX, YY, ZZ bzw. XYZ gesetzt. Führen Sie diese Schritte für jede IRQ aus, die einem Port zugewiesen ist (Standard: acht Warteschlangen je Port).
systemctl disable irqbalance systemctl stop irqbalance cat /proc/interrupts | grep qedr zeigt die IRQs, die den einzelnen
Port-Warteschlangen zugewiesen sind.
echo 1 > /proc/irq/XX/smp_affinity_list echo 2 > /proc/irq/YY/smp_affinity_list echo 4 > /proc/irq/ZZ/smp_affinity_list echo 8 > /proc/irq/XYZ/smp_affinity_list
Konfigurieren der Blockgerätestaffelung
Legen Sie die Einstellungen für die Blockgerätestaffelung für die einzelnen iSCSI-Geräte oder -Ziele fest: echo noop > /sys/block/sdd/queue/scheduler echo 2 > /sys/block/sdd/queue/nomerges echo 0 > /sys/block/sdd/queue/add_random echo 1 > /sys/block/sdd/queue/rq_affinity
Konfigurieren von iSER auf SLES 6.7
Dieser Abschnitt enthält Informationen für die Konfiguration von iSER für
VMware ESXi 6.7.
Vor dem Start
Stellen Sie sicher, dass folgende Voraussetzungen erfüllt sind, bevor Sie iSER für
ESXi 6.7 konfigurieren:
CNA-Paket mit NIC- und RoCE-Treibern auf dem ESXi 6.7-System installiert, und Geräte sind aufgelistet. Geben Sie zum Anzeigen von
RDMA-Geräten folgenden Befehl ein:
esxcli rdma device list
Name Driver State MTU Speed Paired Uplink Description
------- ------- ------ ---- ------- ------------- -------------------------------------vmrdma0 qedrntv Active 1024 40 Gbps vmnic4 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 40 Gbps vmnic5 QLogic FastLinQ QL45xxx RDMA Interface
[root@localhost:~] esxcfg-vmknic -l
121 AH0054602-01 F
8–iSER-Konfiguration
Konfigurieren von iSER auf SLES 6.7
Interface Port Group/DVPort/Opaque Network IP Family IP Address
Netmask Broadcast MAC Address MTU TSO MSS Enabled Type
NetStack vmk0 Management Network IPv4 172.28.12.94
255.255.240.0 172.28.15.255 e0:db:55:0c:5f:94 1500 65535 true DHCP defaultTcpipStack vmk0 Management Network IPv6 fe80::e2db:55ff:fe0c:5f94
64 e0:db:55:0c:5f:94 1500 65535 true STATIC, PREFERRED defaultTcpipStack
Das iSER-Ziel wurde zur Kommunikation mit dem iSER-Initiator konfiguriert.
Konfigurieren von iSER für ESXi 6.7
So konfigurieren Sie iSER für ESXi 6.7:
1.
Fügen Sie iSER-Geräte hinzu, indem Sie die folgenden Befehle ausführen:
esxcli rdma iser add esxcli iscsi adapter list
Adapter Driver State UID Description
------- ------ ------- ------------- ------------------------------------vmhba64 iser unbound iscsi.vmhba64 VMware iSCSI over RDMA (iSER) Adapter vmhba65 iser unbound iscsi.vmhba65 VMware iSCSI over RDMA (iSER) Adapter
2.
Deaktivieren Sie die Firewall wie folgt.
esxcli network firewall set --enabled=false esxcli network firewall unload vsish -e set /system/modules/iscsi_trans/loglevels/iscsitrans 0 vsish -e set /system/modules/iser/loglevels/debug 4
3.
Erstellen Sie eine standardmäßige vSwitch VMkernel Port-Gruppe und weisen Sie das IP zu:
esxcli network vswitch standard add -v vSwitch_iser1 esxcfg-nics -l
Name PCI Driver Link Speed Duplex MAC Address MTU Description vmnic0 0000:01:00.0 ntg3 Up 1000Mbps Full e0:db:55:0c:5f:94 1500 Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic1 0000:01:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:95 1500 Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic2 0000:02:00.0 ntg3 Down 0Mbps Half e0:db:55:0c:5f:96 1500 Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic3 0000:02:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:97 1500 Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic4 0000:42:00.0 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a2 1500 QLogic Corp.
QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter vmnic5 0000:42:00.1 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a3 1500 QLogic Corp.
QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter
122 AH0054602-01 F
8–iSER-Konfiguration
Konfigurieren von iSER auf SLES 6.7
esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1
esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.0 -t static esxcfg-vswitch -p "rdma_group1" -v 4095 vSwitch_iser1 esxcli iscsi networkportal add -n vmk1 -A vmhba65 esxcli iscsi networkportal list esxcli iscsi adapter get -A vmhba65 vmhba65
Name: iqn.1998-01.com.vmware:localhost.punelab.qlogic.com qlogic.org qlogic.com mv.qlogic.com:1846573170:65
Alias: iser-vmnic5
Händler: VMware
Modell: VMware iSCSI over RDMA (iSER) Adapter
Beschreibung: VMware iSCSI over RDMA (iSER) Adapter
Serial Number: vmnic5
Hardware Version:
Asic Version:
Firmware-Version:
Option Rom Version:
Driver Name: iser-vmnic5
Driver Version:
TCP Protocol Supported: false
Bidirectional Transfers Supported: false
Maximum Cdb Length: 64
Can Be NIC: true
Is NIC: true
Is Initiator: true
Is Target: false
Using TCP Offload Engine: true
Using ISCSI Offload Engine: true
4.
Fügen Sie das Ziel wie folgt zum iSER-Initiator hinzu:
esxcli iscsi adapter target list esxcli iscsi adapter discovery sendtarget add -A vmhba65 -a 192.168.10.11
esxcli iscsi adapter target list
Adapter Target Alias Discovery Method Last Error
------- ------------------------ ----- ---------------- ---------vmhba65 iqn.2015-06.test.target1 SENDTARGETS No Error esxcli storage core adapter rescan --adapter vmhba65
123 AH0054602-01 F
8–iSER-Konfiguration
Konfigurieren von iSER auf SLES 6.7
5.
Listen Sie das angehängte Ziel wie folgt auf:
esxcfg-scsidevs -l
mpx.vmhba0:C0:T4:L0
Device Type: CD-ROM
Size: 0 MB
Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0)
Multipath Plugin: NMP
Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0
Devfs Path: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0
Händler: TSSTcorp Model: DVD-ROM SN-108BB Revis: D150
SCSI Level: 5 Is Pseudo: false Status: on
Is RDM Capable: false Is Removable: true
Is Local: true Is SSD: false
Other Names:
vml.0005000000766d686261303a343a30
VAAI Status: unsupported naa.6001405e81ae36b771c418b89c85dae0
Device Type: Direct-Access
Size: 512 MB
Display Name: LIO-ORG iSCSI Disk (naa.6001405e81ae36b771c418b89c85dae0)
Multipath Plugin: NMP
Console Device: /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0
Devfs Path: /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0
Händler: LIO-ORG Model: ram1 Revis: 4.0
SCSI Level: 5 Is Pseudo: false Status: degraded
Is RDM Capable: true Is Removable: false
Is Local: false Is SSD: false
Other Names:
vml.02000000006001405e81ae36b771c418b89c85dae072616d312020
VAAI Status: supported naa.690b11c0159d050018255e2d1d59b612
124 AH0054602-01 F
9
iSCSI-Konfiguration
In diesem Abschnitt finden Sie die folgenden Informationen zur iSCSI-Konfiguration:
“Konfigurieren des iSCSI-Startvorgangs” auf Seite 132
“Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs” auf Seite 144
“iSCSI-Offload unter Windows Server” auf Seite 149
“iSCSI-Offload in Linux-Umgebungen” auf Seite 159
“Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4” auf Seite 176
ANMERKUNG
Einige iSCSI-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert. Weitere Details finden Sie unter
Einschränkungen bei Merkmalen und Funktionen .
iSCSI-Start
Gigabit Ethernet (GbE)-Adapter der Reihe QLogic4
xxxx
unterstützen die iSCSI-Startfunktion zur Aktivierung des Netzwerkstarts von Betriebssystemen auf
Systemen ohne Festplatte. Die iSCSI-Startfunktion ermöglicht den
Remote-Betriebssystemstart in Windows-, Linux- oder VMware-Umgebungen
über eine iSCSI-Zielmaschine über ein Standard-IP-Netzwerk.
In diesem Abschnitt werden die folgenden iSCSI-Startinformationen behandelt:
Adapterkonfiguration für den UEFI-Boot-Modus
Bei Windows- und Linux-Betriebssystemen kann der Start über iSCSI mit
UEFI iSCSI HBA
(Offload-Pfad mit QLogic-Offload-iSCSI-Treiber) konfiguriert werden.
Diese Option wird über das Boot-Protokoll unter der Konfiguration auf der
Port-Ebene festgelegt.
125 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Start
Einrichten von iSCSI-Boot
Das Einrichten von iSCSI-Boot umfasst:
Auswählen des bevorzugten iSCSI-Startmodus
Konfigurieren der iSCSI-Bootparameter
Auswählen des bevorzugten iSCSI-Startmodus
Die Startmodusoption wird unter
iSCSI Configuration
(iSCSI-Konfiguration)
) des Adapter aufgeführt und die Einstellung ist Port-spezifisch.
Weitere Informationen zum Zugreifen auf das Konfigurationsmenü auf
Geräteebene unter UEFI HII finden Sie im OEM-Benutzerhandbuch.
Abbildung 9-1. Systemeinrichtung: NIC-Konfiguration
ANMERKUNG
Der Boot-Vorgang „Booten über SAN“ wird nur im NPAR-Modus unterstützt und UEFI konfiguriert, nicht jedoch im Legacy-BIOS.
126 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Start
Konfigurieren des iSCSI-Ziels
Das Konfigurieren des iSCSI-Ziels erfolgt bei den Zielen der verschiedensten
Hersteller auf unterschiedliche Weise. Informationen über das Konfigurieren des iSCSI-Ziels finden Sie in der vom Hersteller mitgelieferten Dokumentation.
So konfigurieren Sie das iSCSI-Ziel:
1.
Wählen Sie das entsprechende Verfahren auf Basis Ihres iSCSI-Ziels aus:
Erstellen Sie entweder ein iSCSI-Ziel für Ziele wie SANBlaze
® oder IET
®
.
Oder erstellen Sie ein virtuelles Laufwerk oder ein Volume wie z. B.
EqualLogic
®
oder EMC
®
.
2.
Erstellen Sie ein virtuelles Laufwerk.
3.
Zuweisen des virtuellen Laufwerks an das in Schritt 1 eingerichtete virtuelle
Laufwerk.
4.
Verknüpfen eines iSCSI-Initiators mit dem iSCSI-Ziel. Stellen Sie die folgenden Informationen zusammen:
iSCSI-Zielname
TCP-Portnummer
Logische iSCSI-Einheitennummer (LUN)
Qualifizierter iSCSI-Initiatorname (IQN)
CHAP-Authentifizierungsdetails
5.
Nach dem Konfigurieren des iSCSI-Ziels verfügen Sie über die folgenden
Informationen:
Ziel IQN
Ziel-IP-Adresse
TCP-Portnummer des Ziels
LUN des Ziels
Initiator-IQN
CHAP-ID und CHAP-Kennwort
Konfigurieren der iSCSI-Bootparameter
Konfigurieren Sie die QLogic iSCSI-Bootsoftware entweder auf statische oder auf dynamische Konfiguration. Für Informationen zu den im Fenster „General
Parameters“ (Allgemeine Parameter) verfügbaren Konfigurationsoptionen finden
Sie weitere Informationen in der Tabelle Tabelle 9-1 . Hier werden die Parameter
für IPv4 und IPv6 aufgeführt. Parameter, die nur für IPv4 bzw. IPv6 gelten, sind entsprechend gekennzeichnet.
127 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Start
ANMERKUNG
Die Verfügbarkeit des iSCSI-Startvorgangs für IPv6 ist plattform- und geräteabhängig.
Tabelle 9-1. Konfigurationsoptionen
Option Beschreibung
TCP/IP parameters via DHCP
Diese Option gilt nur für IPv4. Legt fest, ob die iSCSI-Boot-Host-Software die IP-Adresse über DHCP (
Enabled
(Aktiviert)) erhält oder eine statische IP-Konfiguration verwendet
(
Disabled
(Deaktiviert)). iSCSI parameters via DHCP
Legt fest, ob die iSCSI-Start-Host-Software die Parameter des iSCSI-Ziels über DHCP (
Enabled
(Aktiviert)) oder über eine statische Konfiguration (
Disabled
(Deaktiviert)) erhält. Die statischen Informationen werden auf der Seite „iSCSI Initiator
Parameters Configuration“ (Konfiguration der Parameter für iSCSI-Initiator) eingegeben.
CHAP Authentication
(CHAP-Authentifizierung) legt fest, ob die iSCSI-Boothost-Software eine
CHAP-Authentifizierung für den Verbindungsaufbau zum iSCSI-Ziel verwendet. Wenn
CHAP Authentication
(CHAP-Authentifizierung) aktiviert ist, werden CHAP-ID und
CHAP-Kennwort auf der Seite „iSCSI Initiator Parameters
Configuration“ (Konfiguration der Parameter für iSCSI-Initiator) eingegeben.
IP Version
(IP-Version)
DHCP Request Timeout
(Zeitüberschreitung der
DHCP-Anforderung)
Target Login Timeout
(Zielanmeldezeitüberschreitung)
DHCP Vendor ID
Diese Option gilt nur für IPv6. Schaltet zwischen
IPv4
und
IPv6 um. Wenn Sie von einer Protokollversion zur anderen wechseln, gehen alle IP-Einstellungen verloren.
Sie können einen maximalen Wartezeitrahmen in Sekunden angeben, in dem eine DHCP-Anfrage erstellt und beantwortet werden muss.
Sie können einen maximalen Wartezeitrahmen in Sekunden angeben, in dem der Initiator die Zielanmeldung abgeschlossen haben muss.
Steuert, wie die iSCSI-Start-Host-Software bei DHCP das Feld
Vendor Class ID
(Lieferantenklassen-ID) interpretiert. Wenn das Feld
Vendor Class ID
(Lieferantenklassen-ID) im DHCP
Offer Packet dem Wert in diesem Feld entspricht, sucht die iSCSI-Start-Host-Software in den Feldern „DHCP Option 43“ nach den angeforderten iSCSI-Start-Erweiterungen. Bei deaktiviertem DHCP muss kein Wert festgelegt werden.
128 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Start
Adapterkonfiguration für den UEFI-Boot-Modus
So konfigurieren Sie den Boot-Modus:
1.
Starten Sie das System neu.
2.
Rufen Sie das Menü „System Utilities“ (Systemdienstprogramme)
(
ANMERKUNG
„Booten über SAN“ wird nur in UEFI-Umgebungen unterstützt. Stellen
Sie sicher, dass „UEFI“ als System-Startoption und nicht „Legacy“ eingestellt ist.
Abbildung 9-2. Systemeinrichtung: Starteinstellungen
129 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Start
3.
Wählen Sie im „System Setup“ (Systemeinrichtung) unter „Device Settings“
(Geräteeinstellungen) das QLogic-Gerät (
) aus. Weitere
Informationen zum Zugriff auf das PCI-Geräte-Konfigurationsmenü finden
Sie im OEM-Benutzerhandbuch.
Abbildung 9-3. Systemeinrichtung: Konfigurationsdienstprogramm für die
Geräteeinstellungen
130 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Start
4.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Option
NIC Configuration
(NIC-Konfiguration) ( Abbildung 9-4 ) aus und
drücken dann auf ENTER (Eingabe).
Abbildung 9-4. Auswählen der NIC-Konfiguration
131 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
5.
Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration)
(
Boot Protocol
(Boot-Protokoll) aus, und drücken
Sie dann auf die EINGABETASTE, um
UEFI iSCSI HBA
auszuwählen
(dafür ist der NPAR-Modus erforderlich).
Abbildung 9-5. Systemeinrichtung: NIC-Konfiguration, Boot-Protokoll
6.
Fahren Sie mit einer der folgenden Konfigurationsoptionen fort:
“Konfigurieren einer statischen iSCSI-Boot-Konfiguration” auf
“Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration” auf
Konfigurieren des iSCSI-Startvorgangs
Die folgenden iSCSI-Start-Konfigurationsoptionen sind verfügbar:
Konfigurieren einer statischen iSCSI-Boot-Konfiguration
Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration
Aktivieren der CHAP-Authentifizierung
132 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
Konfigurieren einer statischen iSCSI-Boot-Konfiguration
In einer statischen Konfiguration müssen Sie die folgenden Daten eingeben:
System-IP-Adresse
System-Initiator IQN
Zielparameter (abrufbar über “Konfigurieren des iSCSI-Ziels” auf Seite 127
)
Informationen über Konfigurationsoptionen finden Sie unter
So konfigurieren Sie die iSCSI-Boot-Parameter in einer statischen
Konfiguration:
1.
Wählen Sie auf der Seite
Main Configuration
(Hauptkonfiguration) die
Option
iSCSI Configuration
(iSCSI-Konfiguration) ( Abbildung 9-6
) aus und drücken Sie dann auf „ENTER“ (Eingabe).
Abbildung 9-6. Systemeinrichtung: iSCSI-Konfiguration
133 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
2.
Wählen Sie auf der Seite „iSCSI Configuration“ (iSCSI-Konfiguration) die
Option
iSCSI General Parameters
(Allgemeine iSCSI-Parameter)
(
Abbildung 9-7 ) aus und drücken dann auf ENTER (Eingabe).
Abbildung 9-7. Systemeinrichtung: Auswählen allgemeiner Parameter
3.
Drücken Sie auf der Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter) (
) auf die Tasten UP ARROW (Pfeil nach oben) und DOWN ARROW (Pfeil nach unten), um einen Parameter auszuwählen. Drücken Sie anschließend auf ENTER (Eingabe), um die folgenden Werte auszuwählen oder einzugeben:
TCP/IP Parameters via DHCP
(TCP/IP-Parameter über DHCP):
Disabled (Deaktiviert)
iSCSI Parameters via DHCP
(iSCSI-Parameter über DHCP):
Disabled (Deaktiviert)
CHAP Authentication
(CHAP-Authentifizierung): Nach Bedarf
IP Version
(IP-Version): Nach Bedarf (IPv4 oder IPv6)
CHAP Mutual Authentication
(Gegenseitige
CHAP-Authentifizierung): Nach Bedarf
DHCP Vendor ID
(DHCP-Anbieter-ID): Für statische Konfigurationen nicht zutreffend
HBA Boot Mode
(HBA-Boot-Modus): Enabled (Aktiviert)
134 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
Virtual LAN ID
(Virtuelle LAN-ID): Standardwert oder nach Bedarf
Virtual LAN Mode
(Virtueller LAN-Modus): Disabled (Deaktiviert)
Abbildung 9-8. Systemeinrichtung: Allgemeine iSCSI-Parameter
4.
Kehren Sie zur Seite „iSCSI Configuration“ (iSCSI-Konfiguration) zurück und drücken Sie auf die Taste ESC.
135 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
5.
Wählen Sie die Option
iSCSI Initiator Parameters
(iSCSI-Initiatorparameter) ( Abbildung 9-9 ) aus und drücken Sie ENTER
(Eingabe).
Abbildung 9-9. Systemeinrichtung: Auswählen von iSCSI Initiator-Parametern
6.
Wählen Sie auf der Seite „iSCSI Initiator Parameter“
(iSCSI-Initiatorparameter) ( Abbildung 9-10 ) die folgenden Parameter aus
und geben Sie einen Wert für jeden Parameter ein:
IPv4* Address (IPv4*-Adresse)
Teilnetzmaske
IPv4* Default Gateway (IPv4*-Standard-Gateway)
IPv4* Primary DNS (Primärer IPv4*-DNS)
IPv4* Secondary DNS (Sekundärer IPv4*-DNS)
iSCSI Name (iSCSI-Name)
. Dieser Name entspricht dem vom
Client-System zu verwendenden Namen des iSCSI-Initiators.
CHAP ID (CHAP-ID)
CHAP Secret (CHAP-Geheimschlüssel)
136 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
ANMERKUNG
Beachten Sie die folgenden für die vorgenannten Elemente mit einem
Sternchen (*):
Die Bezeichnung ändert sich auf Basis der auf der Seite „iSCSI
General Parameters“ (Allgemeine iSCSI-Parameter)
( Abbildung 9-8 auf Seite 135 ) eingestellten IP-Version in
IPv6
oder
IPv4
(Standardeinstellung).
Geben Sie die IP-Adresse ein. Achten Sie dabei auf die korrekte
Eingabe. Die IP-Adresse wird nicht auf Fehler im Hinblick auf
Dopplungen oder falsche Zuweisungen zu einem Segment oder
Netzwerk geprüft.
Abbildung 9-10. Systemeinrichtung: iSCSI-Initiatorparameter
7.
Kehren Sie zur Seite „iSCSI Configuration“ (iSCSI-Konfiguration) zurück und drücken Sie auf die Taste ESC.
137 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
8.
Wählen Sie die Option
iSCSI First Target Parameters
(Erste
iSCSI-Zielparameter) ( Abbildung 9-11 ) aus und drücken Sie ENTER
(Eingabe).
Abbildung 9-11. Systemeinrichtung: Auswählen der ersten iSCSI-Zielparameter
9.
Setzen Sie auf der Seite „iSCSI First Target Parameters“ (Erste iSCSI-Zielparameter) die Option
Connect
(Verbinden) für das iSCSI-Ziel auf
Enabled
(Aktiviert).
10. Geben Sie Werte für die folgenden Parameter für das iSCSI-Ziel ein und drücken Sie dann auf ENTER (Eingabe):
IPv4* Address (IPv4*-Adresse)
TCP-Port
Boot-LUN
iSCSI-Name:
CHAP ID (CHAP-ID)
138 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
CHAP Secret (CHAP-Geheimschlüssel)
ANMERKUNG
Für die vorgenannten Parameter mit einem Sternchen (*) ändert sich die Bezeichnung auf Basis der IP-Version, die auf der Seite „iSCSI
General Parameter“ (Allgemeine iSCSI-Parameter) festgelegt wurde, in
IPv6
oder
IPv4
(Standardeinstellung). Siehe Abbildung 9-12
.
Abbildung 9-12. Systemeinrichtung: Parameter für das erste iSCSI-Ziel
11.
Kehren Sie zur Seite „iSCSI Boot Configuration“ (iSCSI-Boot-Konfiguration) zurück und drücken Sie auf die Taste ESC.
139 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
12. Wenn Sie ein zweites iSCSI-Zielgerät konfigurieren möchten, wählen Sie
iSCSI Second Target Parameters
(Zweite iSCSI-Zielparameter)
(
) aus und geben Sie die Parameterwerte gemäß Schritt 10
ein. Fahren Sie ansonsten mit
Abbildung 9-13. Systemeinrichtung: Parameter für das zweite iSCSI-Ziel
13. Drücken Sie einmal ESC und ein zweites Mal zum Beenden.
140 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
14. Klicken Sie zum Speichern der Änderungen auf
Yes
(Ja) oder folgen Sie den
OEM-Richtlinien zum Speichern der Konfiguration auf Geräteebene. Klicken
Sie beispielsweise auf
Yes
(Ja), um das Ändern der Einstellung zu bestätigen (
).
Abbildung 9-14. Systemeinrichtung: Speichern der iSCSI-Änderungen
15. Nachdem Sie alle Änderungen vorgenommen haben, starten Sie das
System neu, damit die Änderungen in die ausgeführte Konfiguration des
Adapters übernommen werden.
Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration
Stellen Sie bei einer dynamischen Konfiguration sicher, dass die IP-Adresse des
Systems und die Daten für Ziel/Initiator über einen DHCP-Server bereitgestellt
werden (siehe Konfiguration von IPv4 und IPv6 unter “Konfigurieren des
DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs” auf Seite 144
).
Alle Einstellungen für die folgenden Parameter werden ignoriert und müssen nicht gelöscht werden (mit Ausnahme des Initiator-iSCSI-Namens für IPv4, CHAP ID
(CHAP-ID) und den CHAP-Geheimschlüssel für IPv6):
Initiator Parameters (Initiatorparameter)
Erste Zielparameter oder zweite Zielparameter
141 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
Informationen über Konfigurationsoptionen finden Sie unter
ANMERKUNG
Bei Verwendung eines DHCP-Servers werden die Einträge des
DNS-Servers durch die vom DHCP-Server bereitgestellten Werte
überschrieben. Dieses Überschreiben tritt selbst dann auf, wenn die lokal bereitgestellten Werte gültig sind und der DHCP-Server keine Daten über den DNS-Server zur Verfügung stellt. Wenn der DHCP-Server keine Daten
über den DNS-Server zur Verfügung stellt, werden die Werte sowohl für den primären als auch für den sekundären DNS-Server auf
0.0.0.0
eingestellt.
Wenn das Windows-Betriebssystem die Steuerung übernimmt, fragt der
Microsoft-iSCSI-Initiator die Parameter des iSCSI-Initiators ab und konfiguriert die entsprechenden Registrierungen statisch. Dabei werden die zuvor konfigurierten Werte immer überschrieben. Da der DHCP-Daemon in der Umgebung von Windows als Benutzerprozess ausgeführt wird, müssen alle TCP/IP-Parameter statisch festgelegt werden, bevor der Stapel in der iSCSI-Startumgebung aufgebaut wird.
Bei Verwendung von „DHCP Option 17“ werden die Daten über das Ziel vom
DHCP-Server bereitgestellt und als Initiator-iSCSI-Name wird der im Fenster
„Initiator Parameters“ (Initiator-Parameter) eingegebene Name verwendet. Wenn kein Wert ausgewählt wird, nimmt der Controller standardmäßig folgenden
Namen an: iqn.1995-05.com.qlogic.<11.22.33.44.55.66>.iscsiboot
Die Zeichenfolge
11.22.33.44.55.66
entspricht der MAC-Adresse des
Controllers. Bei Verwendung von „DHCP Option 43“ (nur IPv4) werden sämtliche
Einstellungen in den folgenden Fenstern ignoriert und müssen daher nicht gelöscht werden:
Initiator Parameters (Initiatorparameter)
First Target Parameters, or Second Target Parameters (Erste Zielparameter oder zweite Zielparameter)
So konfigurieren Sie die iSCSI-Boot-Parameter mithilfe einer dynamischen
Konfiguration:
Legen Sie auf der Seite „iSCSI General Parameters“ (Allgemeine
iSCSI-Parameter) die folgenden Optionen fest, wie unter Abbildung 9-15
dargestellt:
TCP/IP Parameters via DHCP
(TCP/IP-Parameter über DHCP):
Enabled (Aktiviert)
iSCSI Parameters via DHCP
(iSCSI-Parameter über DHCP): Enabled
(Aktiviert)
142 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs
CHAP Authentication
(CHAP-Authentifizierung): Nach Bedarf
IP Version
(IP-Version): Nach Bedarf (IPv4 oder IPv6)
CHAP Mutual Authentication
(Gegenseitige
CHAP-Authentifizierung): Nach Bedarf
DHCP Vendor ID
(DHCP-Anbieter-ID): Nach Bedarf
HBA Boot Mode
(HBA-Boot-Modus): Disabled (Deaktiviert)
Virtual LAN ID
(Virtuelle LAN-ID): Nach Bedarf
Virtual LAN Boot Mode
(Virtueller LAN-Startmodus): Enabled
(Aktiviert)
Abbildung 9-15. Systemeinrichtung: Allgemeine iSCSI-Parameter
Aktivieren der CHAP-Authentifizierung
Stellen Sie sicher, dass die CHAP-Authentifizierung für das Ziel deaktiviert wurde.
So aktivieren Sie die CHAP-Authentifizierung:
1.
Gehen Sie zur Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter).
2.
Setzen Sie
CHAP Authentication
(Chap-Authentifizierung) auf
Enabled
(Aktiviert).
3.
Geben Sie im Fenster „Initiator Parameters“ (Initiatorparameter) die folgenden Werte ein:
CHAP ID
(CHAP-ID, bis zu 255 Zeichen)
143 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs
CHAP Secret
(CHAP-Geheimschlüssel, wenn Authentifizierung erforderlich ist; muss 12 bis 16 Zeichen lang sein)
4.
Drücken Sie auf ESC, um zur Seite „iSCSI Boot configuration“
(iSCSI-Boot-Konfiguration) zurückzukehren.
5.
Wählen Sie auf der Seite „iSCSI Boot configuration“
(iSCSI-Startkonfiguration) die Option
iSCSI First Target Parameters
(Erste iSCSI-Zielparameter) aus.
6.
Geben Sie in das Fenster „iSCSI First Target Parameters“ (Erste iSCSI-Zielparameter) Werte ein, die bei der Konfiguration des iSCSI-Ziels verwendet werden:
CHAP ID
(CHAP-ID; optional bei Zwei-Wege-CHAP)
CHAP Secret
(CHAP-Geheimschlüssel, optional bei
Zwei-Wege-CHAP, muss 12 bis 16 Zeichen enthalten)
7.
Drücken Sie auf ESC, um zur Seite „iSCSI Boot configuration“
(iSCSI-Boot-Konfiguration) zurückzukehren.
8.
Drücken Sie auf ESC und wählen Sie dann
Save Configuration
(Konfiguration speichern) aus.
Konfigurieren des DHCP-Servers zur
Unterstützung des iSCSI-Boot-Vorgangs
Bei dem DHCP-Server handelt es sich um eine optionale Komponente, die nur benötigt wird, wenn Sie eine Konfiguration für das dynamische Starten über iSCSI
einrichten (siehe “Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration” auf
Die Konfiguration des DHCP-Servers zur Unterstützung des iSCSI-Startvorgangs ist für IPv4 und IPv6 unterschiedlich.
DHCP-Konfigurationen für den iSCSI-Startvorgang bei IPv4
Konfigurieren des DHCP-Servers
Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4
Konfigurieren von VLANs für den iSCSI-Startvorgang
DHCP-Konfigurationen für den iSCSI-Startvorgang bei IPv4
DHCP beinhaltet eine Anzahl von Optionen, die Konfigurationsinformationen an den DHCP-Client übermitteln. Die QLogic-Adapter unterstützen die folgenden
DHCP-Konfigurationen für iSCSI-Boot:
DHCP Option 43, herstellerspezifische Informationen
144 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs
DHCP Option 17, Root Path
Mit Hilfe von Option 17 werden Informationen über das iSCSI-Ziel an den iSCSI-Client übermittelt.
Das Format für das Stammverzeichnis ist in IETC RFC 4173 definiert und lautet:
"iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":"<targetname>"
Tabelle 9-2 listet die DHCP Option 17-Parameter auf.
Tabelle 9-2. Definitionen der Parameter von „DHCP Option 17“
Parameter
"iscsi:"
<servername>
":"
<protocol>
<port>
<LUN>
<targetname>
Definition
eine festgelegte Zeichenfolge
Die IP-Adresse oder der vollständig qualifizierte Domänenname
(FQDN) des iSCSI-Ziels
Trennzeichen
IP-Protokoll für den Zugriff auf das iSCSI-Ziel. Da derzeit nur TCP unterstützt wird, lautet das Protokoll „6“.
Dem Protokoll zugeordnete Portnummer. Die
Standardportnummer für iSCSI lautet „3260“.
Die logische Einheitnummer (LUN), die auf dem iSCSI-Ziel verwendet werden soll. Der Wert der LUN muss im hexadezimalen
Format angegeben sein. Eine LUN mit einer ID OF 64 muss im
Parameter zu „Option 17“ des DHCP-Servers als 40 konfiguriert werden.
Der Zielname im IQN- oder EUI-Format. Details zu den IQN- und
EUI-Formaten finden Sie unter „RFC 3720“. Ein Beispiel für einen
IQN-Namen ist iqn.1995-05.com.QLogic:iscsi-target
.
DHCP Option 43, herstellerspezifische Informationen
DHCP Option 43 (herstellerspezifische Informationen) stellt dem iSCSI-Client mehr Konfigurationsoptionen zur Verfügung als DHCP Option 17. In dieser
Konfiguration werden drei zusätzliche Unteroptionen angeboten, die den
Initiator-IQN dem iSCSI-Boot-Client zuweisen und zusätzlich zwei iSCSI-Ziel-IQN bereitstellen, die zum Booten verwendet werden können. Das Format des iSCSI-Ziel-IQN ist mit dem Format von DHCP Option 17 identisch, beim iSCSI-Initiator-IQN handelt es sich einfach um den IQN des Initiators.
ANMERKUNG
DHCP Option 43 wird nur bei IPv4 unterstützt.
145 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs
Tabelle 9-3 listet die Unteroptionen für DHCP Option 43 auf.
Tabelle 9-3. Definitionen der Unteroption von DHCP Option 43
Unteroption
201
202
203
Definition
Informationen über das erste iSCSI-Ziel im Standardformat für das Stammverzeichnis:
"iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":
"<targetname>"
Informationen über das zweite iSCSI-Ziel im Standardformat für das Stammverzeichnis:
"iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":
"<targetname>" iSCSI-Initiator-IQN
Bei Verwendung der DHCP Option 43 sind umfangreichere Konfigurationsschritte vorzunehmen als bei DHCP Option 17, die Umgebung ist jedoch umfassender und es stehen mehr Konfigurationsoptionen zur Verfügung. Sie sollten die
DHCP Option 43 verwenden, wenn Sie eine dynamische iSCSI-Boot-Konfiguration ausführen.
Konfigurieren des DHCP-Servers
Konfigurieren Sie den DHCP-Server so, dass er entweder Option 16, 17 oder 43 unterstützt.
ANMERKUNG
Die Formate der DHCPv6-Option 16 und der Option 17 sind in RFC 3315 vollständig definiert.
Wenn Sie Option 43 verwenden, müssen Sie auch Option 60 konfigurieren.
Der Wert von Option 60 muss mit dem Wert für „DHCP Vendor ID“
übereinstimmen. Dieser Wert lautet „QLGC ISAN“, wie unter
iSCSI General
Parameter
(Allgemeine iSCSI-Parameter) auf der Seite „iSCSI Boot
Configuration“ (iSCSI-Startkonfiguration) angezeigt.
146 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs
Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4
Der DHCPv6-Server stellt eine Anzahl von Optionen zur Verfügung, darunter eine zustandslose oder zustandbehaftete IP-Konfiguration sowie Informationen für den
DHCPv6-Client. Die QLogic-Adapter unterstützen die folgenden
DHCP-Konfigurationen für iSCSI-Boot:
DHCPv6 Option 16, Vendor Class-Option
DHCPv6 Option 17, Herstellerspezifische Informationen
ANMERKUNG
Die DHCPv6-Standardoption „Root Path“ ist noch nicht verfügbar. QLogic empfiehlt für die Unterstützung des dynamischen iSCSI-Startvorgangs IPv6 die Verwendung von Option 16 oder Option 17.
DHCPv6 Option 16, Vendor Class-Option
DHCPv6 Option 16 (Vendor Class-Option) muss vorhanden sein und eine
Zeichenfolge enthalten, die mit dem konfigurierten Parameter „DHCP Vendor ID“
übereinstimmt. Der Wert „DHCP Vendor ID“ lautet „QLGC ISAN“, wie im Abschnitt
General Parameters
(Allgemeine Parameter) des Menüs
iSCSI Boot
Configuration
(iSCSI-Startkonfiguration) angezeigt.
Der Inhalt von Option 16 sollte
<2-byte length> <DHCP Vendor ID>
sein.
DHCPv6 Option 17, Herstellerspezifische Informationen
DHCPv6 Option 17 (herstellerspezifische Informationen) stellt dem iSCSI-Client weitere Konfigurationsoptionen zur Verfügung. In dieser Konfiguration werden drei zusätzliche Unteroptionen angeboten, die den Initiator-IQN dem iSCSI-Boot-Client zuweisen und zusätzlich zwei iSCSI-Ziel-IQN bereitstellen, die zum Booten verwendet werden können.
Tabelle 9-4 listet die Unteroptionen für DHCP Option 17 auf.
147 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs
Tabelle 9-4. Definitionen der Unteroption für DHCP Option 17
Unteroption Definition
201
202
Informationen über das erste iSCSI-Ziel im Standardformat für das Stammverzeichnis:
"iscsi:"[<Servername>]":"<Protokoll>":"<Port>":"<LUN> ":
"<targetname>"
Informationen über das zweite iSCSI-Ziel im Standardformat für das Stammverzeichnis:
"iscsi:"[<Servername>]":"<Protokoll>":"<Port>":"<LUN> ":
"<targetname>"
203 iSCSI-Initiator-IQN
Anmerkungen zur Tabelle:
Die Klammern [ ] sind für IPv6-Adressen erforderlich.
Der Inhalte für Option 17 sollte wie folgt lauten:
<2-byte Option Number 201|202|203> <2-byte length> <data>
Konfigurieren von VLANs für den iSCSI-Startvorgang
iSCSI-Datenverkehr im Netzwerk kann in einem Layer-2-VLAN isoliert werden, um ihn von allgemeinem Datenverkehr zu trennen. In so einem Fall muss die iSCSI-Schnittstelle auf dem Adapter Teil dieses VLANs sein.
So konfigurieren Sie VLANs für den iSCSI-Startvorgang:
1.
Gehen Sie zur Seite
iSCSI Configuration
(iSCSI-Konfiguration) für den
Port.
2.
Wählen Sie
iSCSI General Parameters
(Allgemeine iSCSI-Parameter) aus.
148 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server
3.
Wählen Sie
VLAN ID
(VLAN-ID) aus, um den VLAN-Wert einzugeben und
festzulegen. Siehe dazu auch Abbildung 9-16
.
Abbildung 9-16. Systemeinrichtung: Allgemeine iSCSI-Parameter, VLAN-ID
iSCSI-Offload unter Windows Server
iSCSI-Offload ist eine Technologie, mit der die rechenintensiven Aufgaben bei der
Verarbeitung des iSCSI-Protokolls von den Hostprozessoren zu deren Entlastung auf den iSCSI-Hostbus-Adapter verlagert werden und so bei gleichzeitiger
Erhöhung der Netzwerkleistung und des Durchsatzes eine optimale Nutzung der
Serverprozessoren erreicht wird. In diesem Abschnitt wird beschrieben, wie Sie die Windows-iSCSI-Offload-Funktion für QLogic 41
xxx
Series Adapters konfigurieren.
Mit der entsprechenden iSCSI-Offload-Lizenz können Sie Ihren iSCSI-fähigen
41
xxx
Series Adapter so konfigurieren, dass er die iSCSI-Verarbeitung vom
Hostprozessor weg verschiebt. Im folgenden Abschnitt wird beschrieben, wie Sie
Ihr System so einrichten, dass es die Vorteile der iSCSI-Offload-Funktion von
QLogic nutzen kann:
Installieren der QLogic-Treiber
Installieren von Microsoft iSCSI Software Initiator
Konfigurieren von Microsoft Initiator zur Verwendung des iSCSI Offload von
Häufig gestellte Fragen (FAQs) zu iSCSI-Offload
Installation von iSCSI-Boot für Windows Server 2012 R2 und 2016
149 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server
Installieren der QLogic-Treiber
Installieren Sie die Windows-Treiber, wie unter
Windows-Treibersoftware” auf Seite 17 beschrieben.
Installieren von Microsoft iSCSI Software Initiator
Rufen Sie das Microsoft-iSCSI-Initiator-Applet auf. Beim ersten Start fordert Sie das System dazu auf, einen automatischen Dienststart einzurichten. Bestätigen
Sie die Auswahl, damit das Applet gestartet wird.
Konfigurieren von Microsoft Initiator zur Verwendung des iSCSI Offload von QLogic
Nachdem jetzt die IP-Adresse für den iSCSI-Adapter konfiguriert wurde, müssen
Sie Microsoft Initiator verwenden, um eine Verbindung mit dem iSCSI-Ziel unter
Verwendung des iSCSI-Adapters von QLogic hinzuzufügen und zu konfigurieren.
Weitere Informationen zu Microsoft Initiator finden Sie im entsprechenden
Microsoft-Benutzerhandbuch.
So konfigurieren Sie den Microsoft Initiator:
1.
Öffnen Sie Microsoft Initiator.
2.
Gehen Sie wie folgt vor, um IQN-Namen für den Initiator entsprechend
Ihrem Setup zu konfigurieren: a.
Klicken Sie unter „iSCSI Initiator Properties“ (Eigenschaften des iSCSI-Initiators) auf die Registerkarte
Configuration
(Konfiguration).
150 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server b.
Klicken Sie auf der Seite „Configuration“ (Konfiguration)
) zum Ändern des Initiatornamens auf
Change
(Ändern).
Abbildung 9-17. Eigenschaften des iSCSI-Initiators, Konfiguration (Seite)
151 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server c.
Geben Sie im Dialogfeld „iSCSI Initiator Name“ (iSCSI-Initiatorname) den neuen Initiator-IQN-Namen ein und klicken Sie auf
OK
.
)
Abbildung 9-18. Änderung des iSCSI-Initiator-Knotennamens
3.
Klicken Sie unter „iSCSI Initiator Properties“ (Eigenschaften des iSCSI-Initiators) auf die Registerkarte
Discovery
(Ermittlung).
152 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server
4.
Klicken Sie auf der Seite „Discovery“ (Ermittlung) (
Target portals
(Zielportale) auf
Discover Portal
(Portal ermitteln).
Abbildung 9-19. iSCSI-Initiator – Zielportal ermitteln
153 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server
5.
Führen Sie im Dialogfeld „Discover Target Portal“ (Zielportal ermitteln)
(
Abbildung 9-20 ) die folgenden Schritte aus:
a.
Geben Sie in das Feld
IP address or DNS name
(IP-Adresse oder
DNS-Name) die IP-Adresse des Ziels ein.
b.
Klicken Sie auf
Advanced
(Erweitert).
Abbildung 9-20. IP-Adresse für das Zielportal
6.
Vervollständigen Sie im Dialogfeld „Advanced Settings“ (Erweiterte
Einstellungen) (
) die folgenden Informationen unter
Connect using
(Verbinden über): a.
Wählen Sie für
Local adapter
(Lokaler Adapter)
QLogic <Name oder
Modell> Adapter
aus. b.
Wählen Sie für
Initiator IP
(Initiator-IP-Adresse) die IP-Adresse des
Adapters aus.
154 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server c.
Klicken Sie auf
OK
.
Abbildung 9-21. Auswählen der Initiator-IP-Adresse
7.
Klicken Sie auf der Seite „iSCSI Initiator Properties, Discovery“
(iSCSI-Initiator-Eigenschaften, Ermittlung) auf
OK
.
155 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server
8.
Klicken Sie auf die Registerkarte
Targets
(Ziele) und dann auf der Seite
„Targets“ (Ziele) (
) auf
Connect
(Verbinden).
Abbildung 9-22. Herstellen einer Verbindung zum iSCSI-Ziel
156 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server
9.
Klicken Sie im Dialogfeld „Connect To“ (Verbinden mit) (
Advanced
(Erweitert).
Abbildung 9-23. Mit Ziel verbinden – Dialogfeld
10. Wählen Sie im Dialogfeld „Local Adapter“ (Lokaler Adapter) den
QLogic
<Name oder Modell> Adapter
aus und klicken Sie dann auf
OK
.
11.
Klicken Sie erneut auf
OK
, um Microsoft Initiator zu schließen.
12. Zur Formatierung der iSCSI-Partition verwenden Sie die
Datenträgerverwaltung.
ANMERKUNG
Es bestehen einige Einschränkungen bei der Teaming-Funktionalität, darunter:
Teaming unterstützt keine iSCSI-Adapter.
Teaming unterstützt keine NDIS-Adapter, die sich im Boot-Pfad befinden.
Teaming unterstützt NDIS-Adapter, die sich nicht im iSCSI-Boot-Pfad befinden, jedoch nur für die SLB-Teamart.
Häufig gestellte Fragen (FAQs) zu iSCSI-Offload
Im Folgenden werden einige der häufig gestellten Fragen (FAQs) zu iSCSI-Offload behandelt:
Frage:
Antwort:
Wie weise ich eine IP-Adresse für iSCSI-Offload zu?
Verwenden Sie die Seite „Configurations“ (Konfigurationen) in der
QConvergeConsole-Benutzeroberfläche.
157 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server
Frage:
Antwort:
Welche Werkzeuge soll ich verwenden, um die Verbindung mit dem Ziel herzustellen?
Verwenden Sie Microsoft iSCSI Software Initiator (ab
Version 2.08).
Frage:
Antwort:
Woher weiß ich, dass sich die Verbindung im Offload-Modus befindet?
Verwenden Sie Microsoft iSCSI Software Initiator. Geben Sie in einer Befehlszeile oiscsicli sessionlist
ein. Bei
Verbindungen im iSCSI-Offload-Modus wird unter
Initiator Name
(Initiatorname) ein Eintrag angezeigt, der mit
B06BDRV
beginnt. Bei einer Verbindung ohne Offload wird ein Eintrag angezeigt, der mit
Root
beginnt.
Welche Konfigurationen sollte ich vermeiden?
Die IP-Adresse darf nicht dieselbe sein wie für das LAN.
Frage:
Antwort:
Installation von iSCSI-Boot für Windows Server 2012 R2 und
2016
Windows Server 2012 R2 und 2016 unterstützen das Booten und Installieren in die Offload- und Non-Offload-Pfade. QLogic erfordert die Verwendung einer
„Slipstream“-DVD mit den neuesten QLogic-Treibern. Siehe
(Slipstreaming) der Adaptertreiber in die Windows-Imagedateien” auf Seite 188 .
Mit dem folgenden Verfahren wird das Image auf das Booten im Offload- oder
Non-Offload-Pfad vorbereitet.
So richten Sie den iSCSI-Boot-Vorgang für Windows Server 2012 R2 und
2016 ein:
1.
Entfernen Sie alle lokalen Festplatten auf dem zu startenden System (dem
„Remote-System“).
2.
Bereiten Sie den Windows-BS-Installationsdatenträger vor, indem Sie den
3.
Laden Sie die aktuellsten QLogic iSCSI-Boot-Abbilder auf den NVRAM des
Adapters.
4.
Konfigurieren Sie das iSCSI-Ziel, um eine Verbindung vom Remote-Gerät zuzulassen. Vergewissern Sie sich, dass das Ziel über ausreichend
Speicherplatz für die neue Betriebssysteminstallation verfügt.
5.
Konfigurieren Sie UEFI HII zum Festlegen des iSCSI-Starttyps (Offload oder
Non-Offload), korrigieren Sie den Initiator und die Zielparameter für den iSCSI-Startvorgang.
158 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
6.
Speichern Sie die Einstellungen, und starten Sie das System neu. Das
Remote-System sollte eine Verbindung zum iSCSI-Ziel herstellen und dann vom DVD-ROM-Gerät starten.
7.
Booten Sie von der DVD, und starten Sie die Installation.
8.
Befolgen Sie die Anweisungen auf dem Bildschirm.
Im Fenster, in dem die Liste der für die Installation verfügbaren Festplatten angezeigt wird, sollte auch das iSCSI-Ziellaufwerk angezeigt werden.
Dieses Ziel ist ein Laufwerk, das über das iSCSI-Boot-Protokoll angeschlossen ist und sich im externen iSCSI-Ziel befindet.
9.
Um mit der Installation für Windows Server 2012R2/2016 fortzufahren, klicken Sie auf
Next
(Weiter) und folgen dann den Anweisungen auf dem
Bildschirm. Der Server wird im Rahmen der Installation mehrmals neu gestartet.
10. Nachdem der Server das Betriebssystem gestartet hat, sollten Sie das
Treiberinstallationsprogramm ausführen, um die Installation von
QLogic-Treibern und -Anwendungen abzuschließen.
iSCSI-Absturzspeicherabbild
Die Absturzspeicherabbild-Funktion wird für Non-Offload- und
Offload-iSCSI-Boot-Vorgänge für 41
xxx
Series Adapters unterstützt. Es sind keine weiteren Konfigurationsschritte erforderlich, um die iSCSI-Absturzspeicherbild-Generierung zu konfigurieren.
iSCSI-Offload in Linux-Umgebungen
Die QLogic FastLinQ 41
xxx
iSCSI-Software besteht aus einem Kernelmodul mit der Bezeichnung „qedi.ko“ (qedi). Das qedi-Modul ist bei spezifischen
Funktionalitäten abhängig von weiteren Teilen des Linux-Kernels:
qed.ko
ist das Linux eCore-Kernelmodul, das für bekannte QLogic
FastLinQ 41
xxx
-Hardware-Initialisierungsroutinen verwendet wird.
scsi_transport_iscsi.ko
ist die Linux iSCSI-Transportbibliothek, die für Upcall- und Downcall-Vorgänge im Rahmen der Sitzungsverwaltung verwendet werden.
libiscsi.ko
ist die Linux-iSCSI-Bibliotheksfunktion, die für die
Protokolldateneinheit (PDU) und für die Task-Verarbeitung sowie für die
Sitzungsspeicherverwaltung benötigt wird.
iscsi_boot_sysfs.ko
ist die Linux-iSCSI-Sysfs-Schnittstelle, die Hilfe beim Export der iSCSI-Boot-Informationen bietet.
uio.ko
ist die Linux-Benutzerbereichs-E/A-Schnittstelle, die für die einfache L2-Speicherzuordnung für iscsiuio verwendet wird.
159 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
Diese Module müssen geladen werden, bevor qedi in Betrieb genommen werden kann. Ansonsten tritt möglicherweise ein Fehler der Art „unresolved symbol“ (nicht aufgelöstes Symbol) auf. Wenn das qedi-Modul im Aktualisierungspfad der
Distribution installiert ist, wird die Erfordernis automatisch durch modprobe geladen.
Dieser Abschnitt bietet die folgenden Informationen zum ISCSI-Offload in Linux.
Überprüfen von iSCSI-Schnittstellen in Linux
Open-iSCSI und Starten über SAN – Überlegungen
Unterschiede zu bnx2i
Zwischen qedi, dem Treiber für QLogic FastLinQ 41
xxx
Series Adapter (iSCSI), und dem vorherigen QLogic iSCSI-Offload-Treiber mit der Bezeichnung „bnx2i“ für die Adapter der QLogic 8400-Serie bestehen einige wichtige Unterschiede.
Dazu gehören:
qedi verbindet sich direkt mit einer PCI-Funktion, die durch den CNA ermittelt wird.
qedi sitzt nicht auf dem NET-Gerät.
qedi hängt nicht von einem Netzwerktreiber ab, wie z. B. bnx2x und cnic.
qedi hängt nicht von cnic ab, es hängt jedoch von qed ab.
qedi ist zuständig für den Export von Startinformationen in sysfs mithilfe von iscsi_boot_sysfs.ko
, wobei „bnx2i boot from SAN“ beim Exportieren von
Startinformationen auf das iscsi_ibft.ko
-Modul vertraut.
Konfigurieren von qedi.ko
Der qedi-Treiber verbindet sich automatisch mit den ermittelten iSCSI-Funktionen des CNA und die Zielermittlung und -bindung erfolgt über die open-iscsi-Werkzeuge. Diese Funktionalität und der Betrieb ähneln denen beim bnx2i¡-Treiber.
ANMERKUNG
Weitere Informationen zur Installation von FastLinQ-Treibern finden Sie unter
Kapitel 3 Treiberinstallation .
Führen Sie zum Laden des qedi.ko-Kernelmoduls die folgenden Befehle aus:
#
modprobe qed
#
modprobe libiscsi
160 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
#
modprobe uio
#
modprobe iscsi_boot_sysfs
#
modprobe qedi
Überprüfen von iSCSI-Schnittstellen in Linux
Nach der Installation und dem Laden des qedi-Kernel-Moduls müssen Sie sicherstellen, dass die iSCSI-Schnittstellen korrekt ermittelt wurden.
So überprüfen Sie die iSCSI-Schnittstellen in Linux:
1.
Um zu überprüfen, ob qedi und die verknüpften Kernel-Module aktiv geladen wurden, führen Sie den folgenden Befehl aus:
#
lsmod | grep qedi
qedi 114578 2 qed 697989 1 qedi uio 19259 4 cnic,qedi libiscsi 57233 2 qedi,bnx2i scsi_transport_iscsi 99909 5 qedi,bnx2i,libiscsi iscsi_boot_sysfs 16000 1 qedi
2.
Um zu überprüfen, ob die iSCSI-Schnittstellen ordnungsgemäß ermittelt wurden, führen Sie den folgenden Befehl aus. In diesem Beispiel wurden zwei iSCSI-CNA-Geräte mit den SCSI-Host-Nummern 4 und 5 ermittelt.
#
dmesg | grep qedi
[0000:00:00.0]:[qedi_init:3696]: QLogic iSCSI Offload Driver v8.15.6.0.
....
[0000:42:00.4]:[__qedi_probe:3563]:59: QLogic FastLinQ iSCSI Module qedi
8.15.6.0, FW 8.15.3.0
....
[0000:42:00.4]:[qedi_link_update:928]:59: Link Up event.
....
[0000:42:00.5]:[__qedi_probe:3563]:60: QLogic FastLinQ iSCSI Module qedi
8.15.6.0, FW 8.15.3.0
....
[0000:42:00.5]:[qedi_link_update:928]:59: Link Up event
3.
Verwenden Sie Open-iSCSI-Werkzeuge, um sicherzustellen, dass die
IP-Adresse korrekt konfiguriert wurde. Geben Sie den folgenden Befehl aus:
#
iscsiadm -m iface | grep qedi
qedi.00:0e:1e:c4:e1:6d qedi,00:0e:1e:c4:e1:6d,192.168.101.227,<empty>,iqn.1994-05.com.redhat:534ca9b6 adf
161 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen qedi.00:0e:1e:c4:e1:6c qedi,00:0e:1e:c4:e1:6c,192.168.25.91,<empty>,iqn.1994-05.com.redhat:534ca9b6adf
4.
Um sicherzustellen, dass der iscsiuio-Dienst ausgeführt wird, führen Sie den folgenden Befehl aus:
#
systemctl status iscsiuio.service
iscsiuio.service - iSCSI UserSpace I/O driver
Loaded: loaded (/usr/lib/systemd/system/iscsiuio.service; disabled; vendor preset: disabled)
Active: active (running) since Fri 2017-01-27 16:33:58 IST; 6 days ago
Docs: man:iscsiuio(8)
Process: 3745 ExecStart=/usr/sbin/iscsiuio (code=exited, status=0/SUCCESS)
Main PID: 3747 (iscsiuio)
CGroup: /system.slice/iscsiuio.service !--3747 /usr/sbin/iscsiuio
Jan 27 16:33:58 localhost.localdomain systemd[1]: Starting iSCSI
UserSpace I/O driver...
Jan 27 16:33:58 localhost.localdomain systemd[1]: Started iSCSI UserSpace
I/O driver.
5.
Um das iSCSI-Ziel zu ermitteln, führen Sie den Befehl iscsiadm
aus:
#
iscsiadm -m discovery -t st -p 192.168.25.100 -I qedi.00:0e:1e:c4:e1:6c
192.168.25.100:3260,1 iqn.2003-
04.com.sanblaze:virtualun.virtualun.target-05000007
192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000012
192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0500000c
192.168.25.100:3260,1 iqn.2003-
04.com.sanblaze:virtualun.virtualun.target-05000001
192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000002
6.
Melden Sie sich über den in Schritt 5 erhaltenen IQN beim iSCSI-Ziel an.
Um das Anmeldeverfahren einzuleiten, führen Sie den folgenden Befehl aus
(wobei das letzte Zeichen im Befehl ein klein geschriebenes „L“ ist):
#
iscsiadm -m node -p 192.168.25.100 -T iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0)000007 -l
Logging in to [iface: qedi.00:0e:1e:c4:e1:6c, target:iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007, portal:192.168.25.100,3260] (multiple)
Login to [iface: qedi.00:0e:1e:c4:e1:6c, target:iqn.2003-
04.com.sanblaze:virtualun.virtualun.target-05000007, portal:192.168.25.100,3260] successful.
162 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
7.
Um zu überprüfen, ob die iSCSI-Sitzung erstellt wurde, führen Sie den folgenden Befehl aus:
#
iscsiadm -m session
qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash)
8.
Um nach iSCSI-Geräten zu suchen, führen Sie den Befehl iscsiadm
aus:
#
iscsiadm -m session -P3
...
************************
Attached SCSI devices:
************************
Host Number: 59 State: running scsi59 Channel 00 Id 0 Lun: 0
Attached scsi disk sdb State: running scsi59 Channel 00 Id 0 Lun: 1
Attached scsi disk sdc State: running scsi59 Channel 00 Id 0 Lun: 2
Attached scsi disk sdd State: running scsi59 Channel 00 Id 0 Lun: 3
Attached scsi disk sde State: running scsi59 Channel 00 Id 0 Lun: 4
Attached scsi disk sdf State: running
Informationen zu erweiterten Zielkonfigurationen finden Sie in der
Open-iSCSI-Infodatei unter: https://github.com/open-iscsi/open-iscsi/blob/master/README
Open-iSCSI und Starten über SAN – Überlegungen
In aktuellen Distributionen (z. B. RHEL 6/7 und SLE 11/12) bietet das
Dienstprogramm für den Inbox-iSCSI-Benutzerbereich (Open-iSCSI-Werkzeuge) keine Unterstützung für den qedi-iSCSI-Transport und kann daher keine durch den Benutzerbereich initiierte iSCSI-Funktionalität ausführen. Während der
Installation von „Boot from SAN“ (Starten über SAN) können Sie den qedi-Treiber
über ein Treiber-Aktualisierungsmedium (DUD) aktualisieren. Es ist jedoch keine
Schnittstelle und kein Prozess vorhanden, um Inbox-Dienstprogramme für den
Benutzerbereich zu aktualisieren, damit kommt es zu einem Fehler bei der
Anmeldung am iSCSI-Ziel und der Installation von „Boot from“ (Starten über
SAN).
Um diese Beschränkung zu überwinden, führen Sie den ersten Vorgang für
„Booten über SAN“ über die reine L2-Schnittstelle aus (verwenden Sie nicht das
Hardware-Offload-iSCSI), und verwenden Sie dabei das folgende Verfahren während des Boot-über-SAN-Vorgangs.
163 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
So führen Sie einen Vorgang der Art „Booten über SAN“ über einen
Software-Initiator mithilfe der Dell OEM-Lösungen aus:
1.
Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die Option
Boot Protocol
(Boot-Protokoll) aus, und drücken Sie dann auf EINGABE, um
Legacy PXE
(Legacy-PXE) auszuwählen.
2.
Konfigurieren Sie den Initiator und die Zieleinträge.
3.
Geben Sie zu Beginn der Installation den folgenden Boot-Parameter mit der
DUD-Option weiter:
Für RHEL 6.
x
und 7.
x
:
rd.iscsi.ibft dd
Es sind keine separaten Optionen für ältere Distributionen von RHEL erforderlich.
Für SLES 11 SP4 und SLES 12 SP1/SP2/SP3:
ip=ibft dud=1
Für das FastLinQ-DUD-Paket (z. B. auf RHEL 7):
fastlinq-8.18.10.0-dd-rhel7u3-3.10.0_514.el7-x86_64.iso
Hier steht der DUD-Parameter auf dd
für RHEL 7.
x
und auf dud=1
für
SLES 12.
x
.
4.
Installieren Sie das BS auf dem Ziel-LUN.
5.
Migrieren Sie anhand der folgenden Anweisungen für Ihr Betriebssystem von der Non-Offload-Schnittstelle auf eine Offload-Schnittstelle:
RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“
RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“
SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“
SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“
SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“ über
164 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“
So migrieren Sie von einer Non-Offload-Schnittstelle auf eine
Offload-Schnittstelle:
1.
Booten Sie auf das iSCSI-Non-Offload-/L2-Booten-über-SAN-Betriebssystem.
Geben Sie die folgenden Befehle aus, um die open-iscsi- und iscsiuio-RPMs zu installieren:
#
rpm -ivh --force qlgc-open-iscsi-2.0_873.111-1.x86_64.rpm
#
rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm
2.
Bearbeiten Sie die Datei
/etc/init.d/iscsid
, fügen Sie den folgenden
Befehl hinzu und speichern Sie die Datei: modprobe -q qedi
Zum Beispiel: echo -n $"Starting $prog: " modprobe -q iscsi_tcp modprobe -q ib_iser modprobe -q cxgb3i modprobe -q cxgb4i modprobe -q bnx2i modprobe -q be2iscsi
modprobe -q qedi
daemon iscsiuio
3.
Bearbeiten Sie die Datei
/etc/iscsi/iscsid.conf
, kommentieren Sie die folgenden Zeilen bzw. heben die Kommentierung auf und speichern Sie die
Datei:
Kommentar: iscsid.startup = /etc/rc.d/init.d/iscsid force-start
Kommentar aufheben: iscsid.startup = /sbin/iscsid
Zum Beispiel:
######################
# iscsid daemon config
######################
# If you want iscsid to start the first time a iscsi tool
# needs to access it, instead of starting it when the init
# scripts run, set the iscsid startup command here. This
# should normally only need to be done by distro package
# maintainers.
#
165 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
# Default for Fedora and RHEL. (uncomment to activate).
#iscsid.startup = /etc/rc.d/init.d/iscsid force-start
#
# Default for upstream open-iscsi scripts (uncomment to activate).
iscsid.startup = /sbin/iscsid
4.
Erstellen Sie einen Iface-Datensatz für eine L4-Schnittstelle: Geben Sie den folgenden Befehl aus:
#
iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -o new
New interface qedi.14:02:ec:ce:dc:71 added
Das Iface-Datensatzformat muss wie folgt lauten: qedi.<
mac_address
>
.
In diesem Fall muss die MAC-Adresse mit der L4-MAC-Adresse
übereinstimmen, auf der die iSCSI-Sitzung aktiv ist.
5.
Aktualisieren Sie die Iface-Felder in den Iface-Datensätzen durch die
Ausgabe des Befehls iscsiadm
. Zum Beispiel:
#
iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.hwaddress -v 14:02:ec:ce:dc:71 -o update
qedi.14:02:ec:ce:dc:71 updated.
#
iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.transport_name -v qedi -o update
qedi.14:02:ec:ce:dc:71 updated.
#
iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.bootproto -v dhcp -o update
qedi.14:02:ec:ce:dc:71 updated.
#
iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.ipaddress -v 0.0.0.0 -o update
qedi.14:02:ec:ce:dc:71 updated.
#
iscsiadm -m node -T iqn.1986-03.com.hp:storage.p2000g3.13491b47fb -p 192.168.100.9:3260 -I qedi.14:02:ec:ce:dc:71 -o new
New iSCSI node [qedi:[hw=14:02:ec:ce:dc:71,ip=0.0.0.0,net_if=,iscsi_if=qedi.14:02:ec:ce:dc:71]
192.168.100.9,3260,-1 iqn.1986-03.com.hp:storage.p2000g3.13491b47fb] added
6.
Bearbeiten Sie die Datei
/boot/efi/EFI/redhat/grub.conf
, nehmen Sie die folgenden Änderungen vor, und speichern Sie die Datei:
Entfernen Sie ifname=eth5:14:02:ec:ce:dc:6d
.
Entfernen Sie ip=ibft
.
Fügen Sie selinux=0
hinzu.
Zum Beispiel: kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8
ifname=eth5:14:02:ec:ce:dc:6d
rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap
ip=ibft
KEYBOARDTYPE=pc
KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root rhgb quiet
initrd /initramfs-2.6.32-696.el6.x86_64.img
166 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD
SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root
selinux=0
initrd /initramfs-2.6.32-696.el6.x86_64.img
7.
Erstellen Sie die Datei initramfs
, indem Sie den folgenden Befehl ausgeben:
#
dracut -f
8.
Starten Sie den Server neu, und öffnen Sie dann die HII.
9.
Aktivieren Sie in der HII den iSCSI-Offload-Modus: a.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Optionen
System Setup
(Systemeinrichtung) und
Device Settings
(Geräteeinstellungen) aus.
b.
Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den
Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde.
c.
Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung)
NIC
Partitioning Configuration
(NIC-Partitionierungskonfiguration),
Partition 3 Configuration
(Konfiguration Partition 3) aus.
d.
Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration
Partition 3)
iSCSI Offload Mode
(iSCSI-Offload-Modus) auf
Enabled
(Aktiviert).
10. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
iSCSI
General Parameters
(Allgemeine iSCSI-Parameter), und setzen Sie
HBA
Boot Mode
(HBA-Boot-Modus) auf
Enabled
(Aktiviert).
11.
Setzen auf der Seite „Main Configuration“ (Hauptkonfiguration)
Boot
Protocol
(Boot-Protokoll) auf
UEFI iSCSI HBA
.
12. Speichern Sie die Konfiguration, und starten Sie den Server neu.
ANMERKUNG
Das BS kann nun über die Offload-Schnittstelle gestartet werden.
167 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“
So migrieren Sie von einer Non-Offload-Schnittstelle auf eine
Offload-Schnittstelle:
1.
Aktualisieren Sie die open-iscisi-Werkzeuge und iscsiuio, indem Sie die folgenden Befehle ausgeben:
#
rpm -ivh qlgc-open-iscsi-2.0_873.111.rhel7u3-3.x86_64.rpm --force
#
rpm -ivh iscsiuio-2.11.5.3-2.rhel7u3.x86_64.rpm --force
2.
Laden Sie alle Daemon-Dienste über den folgenden Befehl neu:
#
systemctl daemon-reload
3.
Starten Sie die iscsid- und iscsiuio-Dienste neu, indem Sie die folgenden
Befehle ausgeben:
#
systemctl restart iscsiuio
#
systemctl restart iscsid
4.
Erstellen Sie einen Iface-Datensatz für die L4-Schnittstelle, indem Sie den folgenden Befehl ausgeben:
#
iscsiadm -m iface -I qedi. 00:0e:1e:d6:7d:3a -o new
Das Iface-Datensatzformat muss wie folgt lauten: qedi<
MAC-Adresse
>
. In diesem Fall muss die MAC-Adresse mit der L4-MAC-Adresse
übereinstimmen, auf der die iSCSI-Sitzung aktiv ist.
5.
Aktualisieren Sie die Iface-Felder in den Iface-Datensätzen durch die
Ausgabe des Befehls iscsiadm
. Zum Beispiel:
#
iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.hwaddress -v 00:0e:1e:d6:7d:3a -o update
#
iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.ipaddress -v 192.168.91.101 -o update
#
iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.subnet_mask -v 255.255.0.0 -o update
#
iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.transport_name -v qedi -o update
#
iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.bootproto -v static -o update
6.
Erstellen Sie wie folgt einen Zielknotendatensatz, um die L4-Schnittstelle zu verwenden:
#
iscsiadm -m node -T iqn.2003-04.com.sanblaze:virtualun.virtualun.target-050123456
-p 192.168.25.100:3260 -I qedi.00:0e:1e:d6:7d:3a -o new
7.
Bearbeiten Sie die Datei
/usr/libexec/iscsi-mark-root-node
, und suchen Sie die folgende Aussage: if [ "$transport" = bnx2i ]; then start_iscsiuio=1
168 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
Fügen Sie
|| [ "$transport" = qedi ]
wie folgt zum IF-Ausdruck hinzu: if [ "$transport" = bnx2i ]
|| [ "$transport" = qedi ]
; then start_iscsiuio=1
8.
Bearbeiten Sie die Datei
/etc/default/grub
, und suchen Sie anschließend die folgende Aussage:
GRUB_CMDLINE_LINUX="iscsi_firmware ip=ibft"
Ändern Sie diese Aussage in:
GRUB_CMDLINE_LINUX="rd.iscsi.firmware"
9.
Erstellen Sie eine neue grub.cfg
-Datei, indem Sie den folgenden Befehl ausgeben:
#
grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg
10. Erstellen Sie die Datei initramfs
, indem Sie den folgenden Befehl ausgeben:
#
dracut -f
11.
Starten Sie den Server neu, und öffnen Sie dann die HII.
12. Aktivieren Sie in der HII den iSCSI-Offload-Modus: a.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
System Setup
(Systemeinrichtung) und
Device Settings
(Geräteinstellungen) aus.
b.
Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den
Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde.
c.
Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung)
NIC
Partitioning Configuration
(NIC-Partitionierungskonfiguration),
Partition 3 Configuration
(Konfiguration Partition 3) aus.
d.
Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration
Partition 3)
iSCSI Offload Mode
(iSCSI-Offload-Modus) auf
Enabled
(Aktiviert).
13. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
iSCSI
General Parameters
(Allgemeine iSCSI-Parameter), und setzen Sie
HBA
Boot Mode
(HBA-Boot-Modus) auf
Enabled
(Aktiviert).
14. Setzen auf der Seite „Main Configuration“ (Hauptkonfiguration)
Boot
Protocol
(Boot-Protokoll) auf
UEFI iSCSI HBA
.
169 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
15. Speichern Sie die Konfiguration, und starten Sie den Server neu.
ANMERKUNG
Das BS kann nun über die Offload-Schnittstelle gestartet werden.
SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“
So migrieren Sie von einer Non-Offload-Schnittstelle auf eine
Offload-Schnittstelle:
1.
Aktualisieren Sie die open-iscsi-Werkzeuge auf die neuesten verfügbaren
Versionen, indem Sie die folgenden Befehle ausführen:
#
rpm -ivh qlgc-open-iscsi-2.0_873.111.sles11sp4-3.x86_64.rpm --force
#
rpm -ivh iscsiuio-2.11.5.3-2.sles11sp4.x86_64.rpm --force
2.
Bearbeiten Sie die Datei
/etc/elilo.conf
, nehmen Sie die folgenden
Änderungen vor, und speichern Sie anschließend die Datei:
Entfernen Sie den Parameter ip=ibft
(falls vorhanden).
Fügen Sie iscsi_firmware
hinzu.
3.
Bearbeiten Sie die Datei
/etc/sysconfig/kernel
, und suchen Sie die folgende Aussage:
INITRD_MODULES=”ata_piix ata_generic”
Ändern Sie die Aussage in:
INITRD_MODULES=”ata_piix ata_generic qedi”
Speichern Sie die Datei.
4.
Bearbeiten Sie die Datei
/etc/modprobe.d/unsupported-modules
,
ändern Sie den Wert für allow_unsupported_modules
in 1, und speichern
Sie die Datei: allow_unsupported_modules 1
5.
Suchen und löschen Sie die folgenden Dateien:
/etc/init.d/boot.d/K01boot.open-iscsi
/etc/init.d/boot.open-iscsi
6.
Erstellen Sie eine Sicherungskopie der initrd-Datei, und erstellen Sie anschließend eine neue initrd-Datei, indem Sie die folgenden Befehle ausgeben:
#
cd /boot/
#
mkinitrd
170 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
7.
Starten Sie den Server neu, und öffnen Sie dann die HII.
8.
Aktivieren Sie in der HII den iSCSI-Offload-Modus: a.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
System Setup
(Systemeinrichtung) und
Device Settings
(Geräteinstellungen) aus.
b.
Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den
Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde.
c.
Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung)
NIC
Partitioning Configuration
(NIC-Partitionierungskonfiguration),
Partition 3 Configuration
(Konfiguration Partition 3) aus.
d.
Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration
Partition 3)
iSCSI Offload Mode
(iSCSI-Offload-Modus) auf
Enabled
(Aktiviert).
9.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
iSCSI
General Parameters
(Allgemeine iSCSI-Parameter) aus, und setzen Sie
HBA Boot Mode
(HBA-Boot-Modus) auf
Enabled
(Aktiviert).
10. Setzen auf der Seite „Main Configuration“ (Hauptkonfiguration)
Boot
Protocol
(Boot-Protokoll) auf
UEFI iSCSI HBA
.
11.
Speichern Sie die Konfiguration, und starten Sie den Server neu.
ANMERKUNG
Das BS kann nun über die Offload-Schnittstelle gestartet werden.
SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“
So migrieren Sie von einer Non-Offload-Schnittstelle auf eine
Offload-Schnittstelle:
1.
Starten Sie auf das iSCSI-Non-Offload-/L2-Boot-über-SAN-Betriebssystem.
Geben Sie die folgenden Befehle aus, um die open-iscsi- und iscsiuio-RPMs zu installieren:
#
qlgc-open-iscsi-2.0_873.111.slessp2-3.x86_64.rpm
#
iscsiuio-2.11.5.3-2.sles12sp2.x86_64.rpm
2.
Laden Sie alle Daemon-Dienste neu, indem Sie den folgenden Befehl ausgeben:
#
systemctl daemon-reload
171 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
3.
Aktivieren Sie die iscsid- und iscsiuio-Dienste, wenn sie nicht bereits aktiviert wurden. Geben Sie dazu die folgenden Befehle aus:
# systemctl enable iscsid
# systemctl enable iscsiuio
4.
Geben Sie den folgenden Befehl aus:
cat /proc/cmdline
5.
Überprüfen Sie, ob das BS Startoptionen bewahrt hat, z. B. ip=ibft
oder rd.iscsi.ibft
.
Wenn es bewahrte Startoptionen gibt, fahren Sie mit Schritt 6 fort.
Wenn es keine bewahrten Startoptionen gibt, fahren Sie mit Schritt 6 c
fort.
6.
Bearbeiten Sie die Datei
/etc/default/grub
und ändern Sie den Wert
GRUB_CMDLINE_LINUX
.
a.
Entfernen Sie rd.iscsi.ibft
(falls vorhanden).
b.
Entfernen Sie alle Startoptionen der Art ip=<Wert>
. (falls vorhanden).
c.
Fügen Sie rd.iscsi.firmware
hinzu. Fügen Sie bei älteren
Distributionen iscsi_firmware
hinzu.
7.
Erstellen Sie eine Sicherungskopie der Originalgrub.cfg
-Datei. Diese
Datei befindet sich an den folgenden Speicherorten:
Legacy-Start:
/boot/grub2/grub.cfg
UEFI-Start:
/boot/efi/EFI/sles/grub.cfg
für SLES
8.
Erstellen Sie eine neue grub.cfg
-Datei, indem Sie den folgenden Befehl ausgeben:
#
grub2-mkconfig -o <new file name>
9.
Vergleichen Sie die alte Datei mit der Bezeichnung grub.cfg
mit der neuen
Datei mit der Bezeichnung grub.cfg
, um Ihre Änderungen zu überprüfen.
10. Ersetzen Sie die Originalgrub.cfg
-Datei durch die neue Datei grub.cfg
.
11.
Erstellen Sie die Datei initramfs
, indem Sie den folgenden Befehl ausgeben:
#
dracut -f
12. Starten Sie den Server neu, und öffnen Sie dann die HII.
172 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
13. Aktivieren Sie in der HII den iSCSI-Offload-Modus: a.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
System Setup
(Systemeinrichtung) und
Device Settings
(Geräteinstellungen) aus.
b.
Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde.
c.
Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung)
NIC
Partitioning Configuration
(NIC-Partitionierungskonfiguration),
Partition 3 Configuration
(Konfiguration Partition 3) aus.
d.
Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration
Partition 3)
iSCSI Offload Mode
(iSCSI-Offload-Modus) auf
Enabled
(Aktiviert).
14. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
iSCSI
General Parameters
(Allgemeine iSCSI-Parameter) aus, und setzen Sie
HBA Boot Mode
(HBA-Boot-Modus) auf
Enabled
(Aktiviert).
15. Setzen auf der Seite „Main Configuration“ (Hauptkonfiguration)
Boot
Protocol
(Boot-Protokoll) auf
UEFI iSCSI HBA
.
16. Speichern Sie die Konfiguration, und starten Sie den Server neu.
ANMERKUNG
Das BS kann nun über die Offload-Schnittstelle gestartet werden.
SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“ über MPIO
Um von L2 auf L4 zu migrieren und die Einstellungen für Microsoft
Multipfad-E/A (MPIO) zu konfigurieren, um das Betriebssystem über die
Offload-Schnittstelle zu booten:
1.
Geben Sie zum Aktualisieren des open-iscsi-Werkzeugs den folgenden
Befehl aus:
#
rpm -ivh --force qlgc-open-iscsi-2.0_873.111.sles12sp1-3.x86_64.rpm
#
rpm -ivh --force iscsiuio-2.11.5.3-2.sles12sp1.x86_64.rpm
2.
Gehen Sie zu
/etc/default/grub
und ändern Sie den Parameter rd.iscsi.ibft
in rd.iscsi.firmware
.
3.
Geben Sie den folgenden Befehl aus:
grub2-mkconfig -o /boot/efi/EFI/suse/grub.cfg
173 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen
4.
Führen Sie zum Laden des Multipfad-Moduls den folgenden Befehl aus:
modprobe dm_multipath
5.
Führen Sie zum Aktivieren des Multipfad-Daemon die folgenden Befehle aus:
systemctl start multipathd.service
systemctl enable multipathd.service
systemctl start multipathd.socket
6.
Führen Sie zum Hinzufügen von Geräten zum Multipfad die folgenden
Befehle aus:
multipath -a /dev/sda multipath -a /dev/sdb
7.
Führen Sie zum Ausführen des Multipfad-Dienstprogramms die folgenden
Befehle aus:
multipath
(zeigt möglicherweise nicht die Multipfad-Geräte an, da es mit einem einzelnen Pfad auf L2 gestartet wird)
.
multipath -ll
8.
Führen Sie zum Einführen des Multipfad-Moduls in initrd den folgenden
Befehl aus:
dracut --force --add multipath --include /etc/multipath
9.
Starten Sie den Server neu und rufen Sie die Systemeinstellungen auf, indem Sie während des Einschalt-Selbsttests (POST) auf die Taste F9 drücken.
10. Passen Sie die UEFI-Konfiguration zur Verwendung des
L4-iSCSI-Boot-Vorgangs an: a.
Öffnen Sie das Fenster „System Setup“ (Systemeinrichtung), und wählen Sie dann
Device Settings
(Geräteeinstellungen) aus.
b.
Wählen Sie im Fenster „Device Settings“ (Geräteeinstellungen) den
Adapter-Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert ist, und drücken Sie dann auf EINGABE.
c.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)
NIC Partitioning Configuration
(Konfiguration der
NIC-Partitionierung) aus, und drücken dann auf EINGABE.
d.
Wählen Sie auf der Seite „Partitions Configuration“
(Partitionskonfiguration)
Partition 3 Configuration
(Konfiguration
Partition 3) aus.
174 AH0054602-01 F
9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen e.
Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration
Partition 3)
iSCSI Offload Mode
(iSCSI-Offload-Modus) auf
Enabled
(Aktiviert).
f.
Gehen Sie zur Seite „Main Configuration“ (Hauptkonfiguration), und wählen Sie dort
iSCSI Configuration
(iSCSI-Konfiguration) aus.
g.
Wählen Sie auf der Seite „iSCSI Configuration“ (iSCSI-Konfiguration) die Option
iSCSI General Parameters
(Allgemeine iSCSI-Parameter) aus.
h.
Setzen Sie auf der Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter)
HBA Boot Mode
(HBA-Boot-Modus) auf
Enabled
(Aktiviert).
i.
j.
Gehen Sie zur Seite „Main Configuration“ (Hauptkonfiguration), und wählen Sie
NIC Configuration
(NIC-Konfiguration) aus.
Setzen auf der Seite „NIC Configuration“ (NIC-Konfiguration)
Boot
Protocol
(Boot-Protokoll) auf
UEFI iSCSI HBA
.
k.
Speichern Sie die Einstellungen, und beenden Sie dann das Menü
„System Configuration“ (Systemkonfiguration).
11.
Um eine ordnungsgemäße Installation der vorkonfigurierten Treiber auf der
Treiber-Aktualisierungsdiskette (DUD) zu gewährleisten und das Laden der enthaltenen Treiber zu verhindern, gehen Sie wie folgt vor: a.
Bearbeiten Sie die Datei
/etc/default/grub
, um den folgenden
Befehl einzuschließen:
BOOT_IMAGE=/boot/x86_64/loader/linux dud=1 brokenmodules=qed,qedi,qedf linuxrc.debug=1 b.
Bearbeiten Sie die Datei dud.config
auf der DUD, und fügen Sie die folgenden Befehle hinzu, um die Liste mit den defekten Module zu löschen: brokenmodules=-qed,qedi,qedf brokenmodules=dummy_xxx
12. Starten Sie das System neu. Das BS muss nun über die
Offload-Schnittstelle gestartet werden.
175 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4
Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4
So installieren Sie RHEL ab Version 7.4:
1.
Starten Sie vom RHEL 7.
x
-Installationsdatenträger, wobei das iSCSI-Ziel bereits mit UEFI verbunden sein muss.
Install Red Hat Enterprise Linux 7.x
Test this media & install Red Hat Enterprise 7.x
Troubleshooting -->
Use the UP and DOWN keys to change the selection
Press 'e' to edit the selected item or 'c' for a command prompt
2.
Geben Sie für die Installation eines vorkonfigurierten Treibers e
ein. Fahren
Sie ansonsten mit Schritt 7 fort.
3.
Wählen Sie die Kernel-Zeile aus und geben dann e
ein.
4.
Geben Sie den folgenden Befehl aus, und drücken Sie dann EINGABE.
linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf
Sie können die Option inst.dd
statt der Option linux dd
verwenden.
5.
Während der Installation werden Sie dazu aufgefordert, den
vorkonfigurierten Treiber gemäß dem Beispiel in Abbildung 9-24 zu
installieren.
176 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4
Figure 9-24. Aufforderung zur Installation des vorkonfigurierten Treibers
6.
Falls in Ihrer Konfiguration erforderlich, laden Sie den Datenträger mit dem
FastLinQ-Treiber-Update, wenn Sie dazu aufgefordert werden, weitere
Treiber-Datenträger einzulegen. Geben Sie ansonsten den Befehl c
ein, wenn es keine weiteren Treiber-Update-Datenträger für die Installation mehr gibt.
7.
Setzen Sie die Installation fort. Sie können den Datenträgertest übergehen.
Klicken Sie auf
Next
(Weiter), um die Installation fortzusetzen.
177 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4
8.
Wählen Sie im Fenster „Configuration“ (Konfiguration) ( Abbildung 9-25
) die
Sprache aus, die während des Installationsvorgangs verwendet werden soll, und klicken Sie dann auf
Continue
(Weiter).
Figure 9-25. Konfiguration von Red Hat Enterprise Linux 7.4
9.
Klicken Sie im Fenster „Installation Summary“
(Installationszusammenfassung) auf
Installation Destination
(Installationsziel). Die Festplattenbeschriftung lautet
sda
und weist damit auf eine Einzelpfad-Installation hin. Wenn Sie sich für eine Multipfad-Installation entschieden hatten, trägt die Festplatte ein Gerätezuordnungsetikett (Device
Mapper Label).
10. Wählen Sie im Abschnitt
Specialized & Network Disks
(Spezielle und
Netzwerklaufwerke) „iSCSI LUN“ aus.
11.
Geben Sie das Passwort des Root-Benutzers ein und klicken dann auf
Next
(Weiter), um die Installation abzuschließen.
12. Fügen Sie während des ersten Startvorgangs die folgende
Kernel-Befehlszeile hinzu, die in die Shell eingehen soll.
rd.iscsi.firmware rd.break=pre-pivot rd.driver.pre=qed,qede, qedr,qedf,qedi selinux=0
13. Geben Sie die folgenden Befehle aus:
#
umount /sysroot/boot/efi
#
umount /sysroot/boot/
#
umount /sysroot/home/
#
umount /sysroot
#
mount /dev/mapper/rhel-root /sysroot
14. Bearbeiten Sie die Datei
/sysroot/usr/libexec/iscsi-mark-root-nodes
und suchen Sie die folgende Aussage: if [ "$transport" = bnx2i ]; then
178 AH0054602-01 F
9–iSCSI-Konfiguration
Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4
Ändern Sie die Aussage in: if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then
15. Führen Sie einen Unmount-Vorgang des Dateisystems durch, indem Sie den folgenden Befehl ausgeben:
#
umount /sysroot
16. Starten Sie den Server neu, und fügen Sie die folgenden Parameter zur
Befehlszeile hinzu: rd.iscsi.firmware
rd.driver.pre=qed,qedi
(zum Laden aller Treiber pre=qed,qedi,qedi,qedf) selinux=0
17. Bearbeiten Sie nach einem erfolgreichen Systemstart die Datei
/etc/modprobe.d/anaconda-blacklist.conf
, um den Sperrlisteneintrag für den ausgewählten Treiber zu entfernen.
18. Bauen Sie die Ramdisk neu auf, indem Sie den Befehl dracut -f ausführen und anschließend einen Neustart einleiten.
179 AH0054602-01 F
10
FCoE-Konfiguration
In diesem Abschnitt finden Sie die folgenden Informationen zur Fibre Channel over Ethernet (FCoE)-Konfiguration:
„Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien“ auf Seite 188
„Konfigurieren von Linux FCoE-Offload“ auf Seite 189
„Unterschiede zwischen qedf und bnx2fc“ auf Seite 190
„Konfigurieren von qedf.ko“ auf Seite 190
„Überprüfen von FCoE-Geräten in Linux“ auf Seite 191
„Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4“ auf Seite 192
ANMERKUNG
FCoE-Offload wird auf allen Adapter der 41
xxx
-Serie unterstützt. Einige
FCoE-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert. Weitere Details finden Sie unter
Einschränkungen bei Merkmalen und Funktionen .
FCoE – Starten über SAN
In diesem Abschnitt werden die Installations- und Startverfahren für die
Betriebssysteme Windows, Linux und ESXi beschrieben:
Vorbereiten des System-BIOS auf den Aufbau und das Starten von FCoE
Windows FCoE – Starten über SAN
ANMERKUNG
Der FCoE-Boot über SAN wird unter ESXi ab Version 5.5 unterstützt. Nicht alle Adapterversionen unterstützen die Funktionen „FCoE“ und „FCoE Boot from SAN“ (FCoE über SAN starten).
180 AH0054602-01 F
10–FCoE-Konfiguration
FCoE – Starten über SAN
Vorbereiten des System-BIOS auf den Aufbau und das Starten von FCoE
Um das System-BIOS vorzubereiten, passen Sie die Systemstartreihenfolge an und definieren Sie, falls erforderlich, das BIOS-Startprotokoll.
Definieren des BIOS-Startprotokolls
Das Starten von FCoE von einem SAN wird nur im UEFI-Modus unterstützt. Setzen
Sie die Plattform im Startmodus (Protokoll) über die System-BIOS-Konfiguration auf „UEFI“.
ANMERKUNG
FCoE BFS wird im Legacy-BIOS-Modus nicht unterstützt.
Konfigurieren des Adapter-UEFI-Startmodus
So konfigurieren Sie den Startmodus für FCoE:
1.
Starten Sie das System neu.
2.
Drücken Sie die OEM-Abkürzungstaste, um die Systemeinrichtung
(
Abbildung 10-1 ) aufzurufen. Auch bekannt als UEFI HII.
Abbildung 10-1. Systemeinrichtung: Auswählen der Geräteeinstellungen
181 AH0054602-01 F
10–FCoE-Konfiguration
FCoE – Starten über SAN
ANMERKUNG
„Start Boot“ (Starten über SAN) wird nur in UEFI-Umgebungen unterstützt. Stellen Sie sicher, dass „UEFI“ als System-Startoption und nicht „Legacy“ eingestellt ist.
3.
Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) das
) aus.
Abbildung 10-2. Systemeinrichtung: Geräteeinstellungen, Port-Auswahl
4.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Option
NIC Configuration
(NIC-Konfiguration) ( Abbildung 10-3
) aus und drücken dann auf ENTER (Eingabe).
182 AH0054602-01 F
10–FCoE-Konfiguration
FCoE – Starten über SAN
Abbildung 10-3. Systemeinrichtung: NIC-Konfiguration
5.
Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die Option
Boot Mode
(Startmodus) aus und drücken Sie dann auf ENTER (Eingabe), um
FCoE
als bevorzugten Startmodus auszuwählen.
ANMERKUNG
FCoE
wird nicht als Startoption aufgeführt, wenn die Funktion
FCoE Mode
(FCoE-Modus) auf der Port-Ebene deaktiviert wurde. Wenn die Option
Boot Mode
(Startmodus)
FCoE
lautet, stellen Sie sicher, dass die Funktion
FCoE Mode
(FCoE-Modus), wie unter Abbildung 10-4
dargestellt, aktiviert ist. FCoE wird nicht auf allen Adapterversionen unterstützt.
183 AH0054602-01 F
10–FCoE-Konfiguration
FCoE – Starten über SAN
Abbildung 10-4. Systemeinrichtung: FCoE-Modus aktiviert
So konfigurieren Sie die FCoE-Startparameter:
1.
Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die
Option
FCoE-Configuration
(FCoE-Konfiguration) aus und drücken dann auf ENTER (Eingabe).
2.
Wählen Sie auf der Seite „FCoE Configuration“ (FCoE-Konfiguration) die
Option
FCoE General Parameters
(Allgemeine FCoE-Parameter) aus und drücken dann auf ENTER (Eingabe).
3.
Drücken Sie auf der Seite „FCoE General Parameters“ (Allgemeine
FCoE-Parameter) (
) auf die Tasten UP ARROW (Pfeil nach oben) und DOWN ARROW (Pfeil nach unten), um einen Parameter auszuwählen. Drücken Sie anschließend auf ENTER (Eingabe), um die folgenden Werte auszuwählen oder einzugeben:
Fabric Discovery Retry Count
(Anzahl der
Fabric-Ermittlungsversuche): Standardwert oder nach Bedarf
LUN Busy Retry Count
(Anzahl an Wiederholungen bei „LUN besetzt“):
Standardwert oder nach Bedarf
184 AH0054602-01 F
10–FCoE-Konfiguration
FCoE – Starten über SAN
Abbildung 10-5. Systemeinrichtung: Allgemeine FCoE-Parameter
4.
Kehren Sie zurück zur FCoE-Konfigurationsseite zurück.
5.
Drücken Sie auf ESC und wählen Sie dann
FCoE Target Parameter
(FCoE-Zielparameter) aus.
6.
Drücken Sie ENTER (Eingabe).
7.
Aktivieren Sie im Menü „FCoE Target Parameters“ (FCoE-Zielparameter) die Option
Connect
(Verbinden) für das bevorzugte FCoE-Ziel.
8.
Geben Sie die Werte für die folgenden Parameter ( Abbildung 10-6 ) für das
iSCSI-Ziel ein und drücken dann auf ENTER (Eingabe):
World Wide Port Name Target
(World Wide Port Name-Ziel)
n
Boot LUN
(Start-LUN)
n
Wenn der Wert für
n
zwischen 1 und 8 liegt, können Sie acht
FCoE-Ziele konfigurieren.
185 AH0054602-01 F
10–FCoE-Konfiguration
FCoE – Starten über SAN
Abbildung 10-6. Systemeinrichtung: Allgemeine FCoE-Parameter
Windows FCoE – Starten über SAN
Zu den Informationen für „FCoE Boot from SAN (FCoE – Starten über SAN) unter
Windows sind die folgenden Informationen verfügbar:
Installation von FCoE-Boot für Windows Server 2012 R2 und 2016
Installation von FCoE-Boot für Windows Server 2012 R2 und 2016
Für eine Installation mit dem Booten von Windows Server 2012R2/2016 über SAN benötigt QLogic eine „Slipstream“-DVD oder ein ISO-Abbild mit den neuesten
QLogic-Treibern. Siehe „Einfügen (Slipstreaming) der Adaptertreiber in die
Windows-Imagedateien“ auf Seite 188
.
Mit dem folgenden Verfahren wird das Image auf die Installation und das Starten im FCoE-Modus vorbereitet.
So richten Sie den FCoE-Boot-Vorgang für Windows Server 2012R2/2016 ein:
1.
Entfernen Sie alle lokalen Festplatten auf dem zu startenden System
(dem „Remote-System“).
2.
Bereiten Sie den Windows-BS-Installationsdatenträger vor, indem Sie den
186 AH0054602-01 F
10–FCoE-Konfiguration
FCoE – Starten über SAN
3.
Laden Sie die aktuellsten QLogic FCoE-Boot-Abbilder auf den NVRAM des
Adapters.
4.
Konfigurieren Sie das FCoE-Ziel, um eine Verbindung vom Remote-Gerät zuzulassen. Vergewissern Sie sich, dass das Ziel über ausreichend
Speicherplatz für die neue Betriebssysteminstallation verfügt.
5.
Konfigurieren Sie UEFI HII zum Festlegen des FCoE-Starttyps auf dem
Adapter-Port, korrigieren Sie den Initiator und die Zielparameter für den
FCoE-Start.
6.
Speichern Sie die Einstellungen, und starten Sie das System neu. Das
Remote-System sollte eine Verbindung zum FCoE-Ziel herstellen und dann vom DVD-ROM-Gerät starten.
7.
Booten Sie von der DVD, und starten Sie die Installation.
8.
Befolgen Sie die Anweisungen auf dem Bildschirm.
9.
In dem Fenster, in dem die Liste der für die Installation verfügbaren
Festplatten angezeigt wird, sollte auch das FCoE-Ziellaufwerk angezeigt werden. Dieses Ziel ist ein Laufwerk, das über das FCoE-Startprotokoll angeschlossen ist und sich im externen FCoE-Ziel befindet.
10. Um mit der Installation für Windows Server 2012R2/2016 fortzufahren, wählen
Sie
Next
(Weiter) und folgen Sie dann den Anweisungen auf dem Bildschirm.
Der Server wird im Rahmen der Installation mehrmals neu gestartet.
11.
Nachdem der Server das Betriebssystem gestartet hat, sollten Sie das
Treiberinstallationsprogramm ausführen, um die Installation von
QLogic-Treibern und -Anwendungen abzuschließen.
Konfigurieren von FCoE
DCB ist standardmäßig auf QLogic 41
xxx
FCoE- und DCB-kompatiblen C-NICs aktiviert. QLogic 41
xxx
FCoE benötigt eine für DCB aktivierte Schnittstelle.
Verwenden Sie unter Windows-Betriebssystemen die QCC-Benutzeroberfläche oder ein Befehlszeilendienstprogramm für die Konfiguration der DCB-Parameter.
FCoE-Absturzspeicherbild
Die Absturzspeicherbild-Funktionalität wird derzeit nur für den FCoE-Start für den
FastLinQ Adapter der 41
xxx
-Serie unterstützt.
Es sind keine weiteren Konfigurationsschritte erforderlich, um die Generierung des iSCSI-Absturzspeicherbilds zu konfigurieren, wenn Sie sich im FCoE-Startmodus befinden.
187 AH0054602-01 F
10–FCoE-Konfiguration
Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien
Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien
So fügen Sie Adaptertreiber in die Windows-Imagedateien ein:
1.
Rufen Sie das aktuellste Treiberpaket für die jeweilige Windows
Server-Version (2012, 2012 R2 oder 2016) ab.
2.
Extrahieren Sie dieses Treiberpaket in ein Arbeitsverzeichnis: a.
Öffnen Sie eine Befehlszeilensitzung und navigieren Sie zu dem
Ordner, der das Treiberpaket enthält.
b.
Um das Treiberinstallationsprogramm zu starten, führen Sie den folgenden Befehl aus:
setup.exe /a
c.
Geben Sie im Feld
Network location
(Netzwerk-Speicherort) den
Pfad des Ordners ein, in den das Treiberpaket extrahiert werden soll.
Geben Sie beispielsweise
c:\temp
ein.
d.
Folgen Sie den Anweisungen des Treiberinstallationsprogramms, um die Treiber in den angegebenen Ordner zu installieren. Im vorliegenden
Beispiel werden die Treiberdateien in den folgenden Pfad installiert: c:\temp\Program File 64\QLogic Corporation\QDrivers
3.
Laden Sie das Windows Assessment and Deployment Kit (ADK) in
Version 10 von der Microsoft-Website herunter: https://developer.microsoft.com/en-us/windows/hardware/ windows-assessment-deployment-kit
4.
Öffnen Sie eine Befehlszeilensitzung (mit Administratorrechten) und navigieren Sie auf der Versions-CD zum Ordner
Tools\Slipstream
.
5.
Suchen Sie die Scriptdatei slipstream.bat
und führen Sie dann den folgenden Befehl aus:
slipstream.bat <path>
Hier steht
<path>
für das Laufwerk und den Unterordner, die Sie in Schritt 2
angegeben haben. Zum Beispiel:
slipstream.bat
"
c:\temp\Program Files 64\QLogic
Corporation\QDrivers
"
188 AH0054602-01 F
10–FCoE-Konfiguration
Konfigurieren von Linux FCoE-Offload
ANMERKUNG
Beachten Sie den folgenden Hinweis zum
Betriebssystem-Installationsmedium:
Das Betriebssystem-Installationsmedium muss ein lokales Laufwerk sein. Netzwerkpfade als Betriebssystem-Installationsmedien werden nicht unterstützt.
Das Script slipstream.bat
fügt die Treiberkomponenten in alle
SKUs ein, die durch das Betriebssystem-Installationsmedium unterstützt werden.
6.
Brennen Sie eine DVD mit der erstellten Treiber-ISO-Imagedatei, die sich im
Arbeitsverzeichnis befindet.
7.
Installieren Sie das Windows Server-Betriebssystem über die neue DVD.
Konfigurieren von Linux FCoE-Offload
Die Cavium FastLinQ Adapter der 41
xxx
-Serie FCoE-Software besteht aus einem
Kernelmodul mit der Bezeichnung „qedf.ko“ (qedf). Das qedf-Modul ist bei spezifischen Funktionalitäten abhängig von weiteren Teilen des Linux-Kernels:
qed.ko
ist das Linus eCore-Kernelmodul, das für bekannte Cavium
FastLinQ 41
xxx
-Hardware-Initialisierungsroutinen verwendet wird.
libfcoe.ko
ist die Linux FCoE-Kernelbibliothek, die erforderlich ist, um die FCoE Forwarder (FCF)-Ausschreibung und die Fabric-Anmeldung
(FLOGI) für das FCoE-Initialisierungsprotokoll (FIP) durchzuführen.
libfc.ko
ist die Linux FC-Kernelbibliothek, die für verschiedene Funktionen benötigt wird, darunter:
Anmeldung und Registrierung am Nameserver
rport-Sitzungsverwaltung
scsi_transport_fc.ko
ist die Linux FC SCSI-Übermittlungsbibliothek, die für die Remote-Port- und SCSI-Zielverwaltung verwendet wird.
Diese Module müssen geladen werden, bevor qedf in Betrieb genommen werden kann. Ansonsten wird möglicherweise ein Fehler wie „unresolved symbol“
(unaufgelöstes Symbol) ausgelöst. Wenn das qedf-Modul im Aktualisierungspfad der Distribution installiert ist, werden die benötigten Module automatisch durch modprobe geladen. Cavium Adapter der 41
xxx
-Serie unterstützen FCoE-Offload.
189 AH0054602-01 F
10–FCoE-Konfiguration
Unterschiede zwischen qedf und bnx2fc
ANMERKUNG
Wenn die Installation mit SLES 11 oder SLES 12 erfolgt, wird der
Parameter withfcoe=1
nicht benötigt, da Adapter der 41
xxx
-Serie den
Software-FCoE-Daemon nicht mehr benötigt.
Unterschiede zwischen qedf und bnx2fc
Zwischen qedf, dem Treiber für den Cavium FastLinQ 41
xxx
10/25GbE Controller
(FCoE), und dem vorherigen Cavium FCoE-Offload-Treiber, bnx2fc, bestehen signifikante Unterschiede. Unterschiede:
qedf verbindet sich direkt mit einer PCI-Funktion, die durch den CNA ermittelt wird.
qedf benötigt die Open-FCoE-Benutzerbereichswerkzeuge (fipvlan, fcoemon, fcoeadm) nicht für die Einleitung der Ermittlung.
qedf löst FIP-VLAN-Anfragen direkt aus; das fipvlan-Dienstprogramm wird nicht benötigt.
qedf benötigt keine FCoE-Schnittstelle, die von fipvlan für fcoemon erstellt wurde.
qedf sitzt nicht auf dem NET-Gerät.
qedf hängt nicht von Netzwerktreibern ab, wie z. B. bnx2x und cnic.
qedf löst beim Verbinden automatisch die FCoE-Ermittlung aus (da es für die
FCoE-Schnittstellenerstellung nicht von fipvlan oder fcoemon abhängig ist).
ANMERKUNG
FCoE-Schnittstellen befinden sich nicht mehr oberhalb der
Netzwerkschnittstelle. Der qedf-Treiber erstellt automatisch
FCoE-Schnittstellen, und zwar getrennt von der Netzwerkschnittstelle.
Daher werden FCoE-Schnittstellen nicht im FCoE-Schnittstellen-Dialogfeld des Installationsprogramms angezeigt. Stattdessen werden die Festplatten automatisch als SCSI-Festplatten angezeigt. Das Verfahren ähnelt damit dem Verfahren der Fibre Channel-Treiber.
Konfigurieren von qedf.ko
Keine explizite Konfiguration für qedf.ko erforderlich. Der Treiber verbindet sich automatisch mit den eingeblendeten FCoE-Funktionen auf dem CNA und beginnt mit der Ermittlung. Diese Funktionalität ähnelt der Funktionalität und dem Betrieb des QLogic FC-Treibers „qla2xx“, im Gegensatz zum älteren Treiber „bnx2fc“.
190 AH0054602-01 F
10–FCoE-Konfiguration
Überprüfen von FCoE-Geräten in Linux
ANMERKUNG
Weitere Informationen zur FastLinQ-Treiberinstallation finden Sie unter
.
Das Kernelmodul „load qedf.ko“ führt die folgenden Schritte aus:
# modprobe qed
# modprobe libfcoe
# modprobe qedf
Überprüfen von FCoE-Geräten in Linux
Führen Sie die folgenden Schritte aus, um zu überprüfen, ob die FCoE-Geräte nach der Installation und dem Laden des qedf-Kernelmoduls korrekt ermittelt wurden.
So überprüfen Sie die FCoE-Geräte in Linux:
1.
Überprüfen Sie lsmod, um zu kontrollieren, ob qedf and die verknüpften
Kernelmodule geladen wurden:
#
lsmod | grep qedf
69632 1 qedf libfc
143360 2 qedf,libfcoe scsi_transport_fc
65536 2 qedf,libfc qed
806912 1 qedf scsi_mod
262144 14 sg,hpsa,qedf,scsi_dh_alua,scsi_dh_rdac,dm_multipath,scsi_transport_fc, scsi_transport_sas,libfc,scsi_transport_iscsi,scsi_dh_emc,libata,sd_mod,sr_mod
2.
Überprüfen Sie dmesg, um sicherzustellen, dass die FCoE-Geräte ordnungsgemäß ermittelt wurden. In diesem Beispiel werden die zwei FCoE
CNA-Geräte mit den SCSI-Host-Nummern 4 und 5 ermittelt.
#
dmesg | grep qedf
[ 235.321185] [0000:00:00.0]: [qedf_init:3728]: QLogic FCoE Offload Driver v8.18.8.0.
....
[ 235.322253] [0000:21:00.2]: [__qedf_probe:3142]:4: QLogic FastLinQ FCoE
Module qedf 8.18.8.0, FW 8.18.10.0
[ 235.606443] scsi host4: qedf
....
[ 235.624337] [0000:21:00.3]: [__qedf_probe:3142]:5: QLogic FastLinQ FCoE
Module qedf 8.18.8.0, FW 8.18.10.0
[ 235.886681] scsi host5: qedf
191 AH0054602-01 F
10–FCoE-Konfiguration
Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4
....
[ 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s).
3.
Prüfen Sie auf ermittelte FCoE-Geräte über lsblk -S
:
#
lsblk -S
NAME HCTL TYPE VENDOR MODEL REV TRAN sdb 5:0:0:0 disk SANBlaze VLUN P2T1L0 V7.3 fc sdc 5:0:0:1 disk SANBlaze VLUN P2T1L1 V7.3 fc sdd 5:0:0:2 disk SANBlaze VLUN P2T1L2 V7.3 fc sde 5:0:0:3 disk SANBlaze VLUN P2T1L3 V7.3 fc sdf 5:0:0:4 disk SANBlaze VLUN P2T1L4 V7.3 fc sdg 5:0:0:5 disk SANBlaze VLUN P2T1L5 V7.3 fc sdh 5:0:0:6 disk SANBlaze VLUN P2T1L6 V7.3 fc sdi 5:0:0:7 disk SANBlaze VLUN P2T1L7 V7.3 fc sdj 5:0:0:8 disk SANBlaze VLUN P2T1L8 V7.3 fc sdk 5:0:0:9 disk SANBlaze VLUN P2T1L9 V7.3 fc
Die Konfigurationsinformationen für den Host befinden sich unter
/sys/class/fc_host/hostX
, wobei
X
für die Nummer des SCSI-Hosts steht. Im vorherigen Beispiel könnte
X
für 4 oder 5 stehen. Die Datei hostX
enthält Attribute für die FCoE-Funktion, z. B. den Worldwide-Port-Namen und die Fabric-ID.
Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4
So installieren Sie RHEL ab Version 7.4:
1.
Starten Sie vom RHEL 7.
x
-Installationsdatenträger, wobei das FCoE-Ziel bereits mit UEFI verbunden sein muss.
Install Red Hat Enterprise Linux 7.x
Test this media & install Red Hat Enterprise 7.x
Troubleshooting -->
Use the UP and DOWN keys to change the selection
Press 'e' to edit the selected item or 'c' for a command prompt
2.
Geben Sie für die Installation eines vorkonfigurierten Treibers
e
ein. Fahren
Sie ansonsten mit Schritt 7 fort.
3.
Wählen Sie die Kernel-Zeile aus und geben dann
e
ein.
192 AH0054602-01 F
10–FCoE-Konfiguration
Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4
4.
Führen Sie den folgenden Befehl aus und drücken Sie dann auf die
EINGABETASTE.
linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf
Sie können die Option inst.dd
statt der Option linux dd
verwenden.
5.
Während der Installation werden Sie dazu aufgefordert, den
vorkonfigurierten Treiber gemäß dem Beispiel in Abbildung 10-7 zu
installieren.
Abbildung 10-7. Aufforderung zur Installation des vorkonfigurierten Treibers
193 AH0054602-01 F
10–FCoE-Konfiguration
Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4
6.
Falls in Ihrer Konfiguration erforderlich, laden Sie den Datenträger mit dem
FastLinQ-Treiber-Update, wenn Sie dazu aufgefordert werden, weitere
Treiber-Datenträger einzulegen. Geben Sie ansonsten den Befehl c
ein, wenn es keine weiteren Treiber-Update-Datenträger für die Installation mehr gibt.
7.
Setzen Sie die Installation fort. Sie können den Datenträgertest übergehen.
Klicken Sie auf
Next
(Weiter), um die Installation fortzusetzen.
8.
Wählen Sie im Fenster „Configuration“ (Konfiguration) ( Abbildung 10-8
) die
Sprache aus, die während des Installationsvorgangs verwendet werden soll, und klicken Sie dann auf
Continue
(Weiter).
Abbildung 10-8. Konfiguration von Red Hat Enterprise Linux 7.4
9.
Klicken Sie im Fenster „Installation Summary“
(Installationszusammenfassung) auf
Installation Destination
(Installationsziel). Die Festplattenbeschriftung lautet
sda
und weist damit auf eine Einzelpfad-Installation hin. Wenn Sie sich für eine Multipfad-Installation entschieden hatten, trägt die Festplatte ein Gerätezuordnungsetikett (Device
Mapper Label).
10. Wählen Sie im Abschnitt
Specialized & Network Disks
(Spezielle und
Netzwerklaufwerke) „FCoE LUN“ aus.
11.
Geben Sie das Passwort des Root-Benutzers ein und klicken dann auf
Next
(Weiter), um die Installation abzuschließen.
12. Fügen Sie während des ersten Startvorgangs die folgende
Kernel-Befehlszeile hinzu, die in die Shell eingehen soll.
rd.driver.pre=qed,qede,qedr,qedf,qedi
13. Bearbeiten Sie nach einem erfolgreichen Systemstart die Datei
/etc/modprobe.d/anaconda-blacklist.conf
, um den Sperrlisteneintrag für den ausgewählten Treiber zu entfernen.
194 AH0054602-01 F
10–FCoE-Konfiguration
Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4
14. Bauen Sie die Ramdisk neu auf, indem Sie den Befehl dracut -f ausführen und anschließend einen Neustart einleiten.
ANMERKUNG
Deaktivieren Sie die Dienste „lldpad“ und „fcoe“, die für Software-FCoE verwendet werden. Sind sie aktiv, können Sie den normalen Betrieb des
195 AH0054602-01 F
11
SR-IOV-Konfiguration
SR-IOV (Single Root Input/Output-Virtualisierung) ist eine Spezifikation von PCI
SIG, mit der ein einzelnes PCIe-Gerät als mehrere, separate physische
PCIe-Geräte angezeigt werden kann. SR-IOV ermöglicht die Isolation von
PCIe-Ressourcen zum Zwecke der Leistung, Interoperabilität und Verwaltbarkeit.
ANMERKUNG
Einige SR-IOV-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert.
In diesem Kapitel finden Sie Anweisungen für Folgendes:
Konfigurieren von SR-IOV unter Windows
„Konfigurieren von SR-IOV unter Linux“ auf Seite 203
„Konfigurieren von SR-IOV unter VMware“ auf Seite 210
Konfigurieren von SR-IOV unter Windows
So konfigurieren Sie SR-IOV unter Windows:
1.
Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf
System BIOS Settings
(System-BIOS-Einstellungen).
2.
Klicken Sie auf der Seite „System BIOS Settings“ (Sytem-BIOS-Einstellungen) auf
Integrated Devices
(Integrierte Geräte).
3.
Führen Sie auf der Seite „Integrated Devices“ (Integrierte Geräte)
(
Abbildung 11-1 ) die folgenden Schritte aus:
a.
Setzen Sie
Virtualization Mode
(Virtualisierungsmodus) auf
SR-IOV
oder
NPAR+SR-IOV
, wenn Sie den NPAR-Modus verwenden.
b.
Klicken Sie auf
Back
(Zurück).
196 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Windows
Abbildung 11-1. Systemeinrichtung für SR-IOV: Integrierte Geräte
4.
Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) für den ausgewählte Adapter auf
Device Level Configuration
(Konfiguration auf
Geräteebene).
5.
Führen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) unter
„Device Level Configuration“ (Konfiguration auf Geräteebene)
(
Abbildung 11-2 ) die folgenden Schritte aus:
a.
Setzen Sie
Virtualization Mode
(Virtualisierungsmodus) auf
SR-IOV
oder
NPAR+SR-IOV
, wenn Sie den NPAR-Modus verwenden.
b.
Klicken Sie auf
Back
(Zurück).
Abbildung 11-2. Systemeinrichtung für SR-IOV: Konfiguration auf Geräteebene
6.
Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf
Finish
(Fertigstellen).
197 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Windows
7.
Wenn das Nachrichtenfeld „Warning - Saving Changes“
(Warnung – Änderungen werden gespeichert) angezeigt wird, klicken Sie zum Speichern der Konfiguration auf
Yes
(Ja).
8.
Klicken Sie im Nachrichtenfeld „Success - Saving Changes“
(Erfolg – Änderungen werden gespeichert) auf
OK
.
9.
So aktivieren Sie SR-IOV auf dem Miniport-Adapter: a.
Rufen Sie den Geräte-Manager auf.
b.
Klicken Sie unter „Miniport Properties“ (Miniport-Eigenschaften) auf die
Registerkarte
Advanced
(Erweitert).
c.
Wählen Sie auf der Seite „Advanced properties“ (Erweiterte
Eigenschaften) (
) unter
Property
(Eigenschaft) die
Option
SR-IOV
aus und setzen Sie den Wert auf
Enabled
(Aktiviert).
d.
Klicken Sie auf
OK
.
Abbildung 11-3. Adapter-Eigenschaften – Erweitert: SR-IOV aktivieren
10. So erstellen Sie einen Switch für eine virtuelle Maschine mit SR-IOV
(
): a.
Starten Sie Hyper-V Manager.
b.
Wählen Sie
Virtual Switch Manager
(Manager für virtuellen Switch). c.
Geben Sie in das Feld
Name
(Name) einen Namen für den virtuellen
Switch ein.
d.
Wählen Sie unter
Connection type
(Verbindungstyp)
External network
(Externes Netzwerk) aus.
198 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Windows e.
Aktivieren Sie das Kontrollkästchen
Enable single-root I/O virtualization (SR-IOV)
(Single-Root-E/A-Virtualisierung (SR-IOV) aktivieren) und klicken Sie dann auf
Apply
(Anwenden).
ANMERKUNG
Stellen Sie sicher, dass Sie bei der Erstellung des virtuellen
Switches SR-IOV aktivieren. Diese Option ist nach der Erstellung des virtuellen Switches nicht mehr verfügbar.
Abbildung 11-4. Manager für virtuellen Switch: SR-IOV aktivieren
199 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Windows f.
Das Nachrichtenfeld „Apply Networking Changes“ (Netzwerkänderungen anwenden) zeigt an, dass
ausstehende Änderungen die
Netzwerkkonnektivität unterbrechen können
. Klicken Sie zum
Speichern Ihrer Änderungen und zum Fortfahren auf
Yes
(Ja).
11.
Um den Funktionsumfang des Switches für die virtuelle Maschine nutzen zu können, führen Sie den folgenden Windows PowerShell-Befehl aus:
PS C:\Users\Administrator>
Get-VMSwitch -Name SR-IOV_vSwitch | fl
Die Ausgabe des Befehls
Get-VMSwitch
umfasst die folgenden
SR-IOV-Funktionen:
12. So erstellen Sie eine virtuelle Maschine (VM) und exportieren die virtuelle
Funktion (VF) in die VM: a.
Erstellen Sie eine virtuelle Maschine.
b.
Fügen Sie den VM-Netzwerkadapter zur virtuellen Maschine hinzu.
c.
Weisen Sie dem VM-Netzwerkadapter einen virtuellen Switch hinzu.
d.
Aktivieren Sie im Dialogfeld „Settings for VM <VM_Name>“
(Einstellungen für VM <Name der virtuellen Maschine>)
) auf der Seite, „Hardware Acceleration“
(Hardware-Beschleunigung) unter
Single-root I/O virtualization
(Single-Root E/A-Virtualisierung) das Kontrollkästchen
Enable
SR-IOV
(SR-IOV aktivieren) und klicken Sie dann auf
OK
.
ANMERKUNG
Nach der Erstellung der Verbindung für den virtuellen Adapter kann die SR-IOV-Einstellung jederzeit aktiviert oder deaktiviert werden (selbst bei aktivem Datenverkehr).
200 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Windows
Abbildung 11-5. Einstellungen für VM: SR-IOV aktivieren
13. Installieren Sie die QLogic-Treiber für die in der VM erkannten Adapter.
Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers
(verwenden Sie nicht die enthaltenen Treiber).
ANMERKUNG
Stellen Sie sicher, dass Sie dasselbe Treiberpaket auf der virtuellen
Maschine und dem Host-System verwenden. Verwenden Sie beispielsweise dieselbe qeVBD-und qeND-Treiberversion auf der virtuellen Maschine unter Windows und im Windows-Hyper-V-Host.
201 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Windows
Nach der Installation der Treiber wird der QLogic-Adapter in der VM aufgelistet.
zeigt ein Beispiel.
Abbildung 11-6. Geräte-Manager: VM mit QLogic-Adapter
14. Führen Sie zum Anzeigen der SR-IOV-VF-Details den folgenden Windows
PowerShell-Befehl aus:
PS C:\Users\Administrator>
Get-NetadapterSriovVf
zeigt ein Beispiel für die Ausgabe an.
Abbildung 11-7. Windows PowerShell-Befehl: Get-NetadapterSriovVf
202 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Linux
Konfigurieren von SR-IOV unter Linux
So konfigurieren Sie SR-IOV unter Linux:
1.
Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf
System BIOS Settings
(System-BIOS-Einstellungen).
2.
Klicken Sie auf der Seite „System BIOS Settings“ (Sytem-BIOS-Einstellungen) auf
Integrated Devices
(Integrierte Geräte).
3.
Führen Sie auf der Seite „System Integrated Devices“ (Systemintegrierte
Geräte) ( Abbildung 11-1 auf Seite 197 ) die folgenden Schritte aus:
a.
Setzen Sie die Option
SR-IOV Global Enable
(SR-IOV global aktivieren) auf
Enabled
(Aktiviert).
b.
Klicken Sie auf
Back
(Zurück).
4.
Klicken Sie auf der Seite „System BIOS Settings“
(System-BIOS-Einstellungen) auf
Processor Settings
(Prozessoreinstellungen).
5.
Führen Sie auf der Seite „Processor Settings“ (Prozessoreigenschaften)
(
Abbildung 11-8 ) die folgenden Schritte aus:
a.
Setzen Sie die Option
Virtualization Technology
(Virtualisierungstechnologie) auf
Enabled
(Aktiviert).
b.
Klicken Sie auf
Back
(Zurück).
203 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Linux
Abbildung 11-8. Systemeinrichtung: Prozessoreinstellungen für SR-IOV
6.
Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung) die Option
„Device Settings“ (Geräteeinstellungen) aus.
7.
Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen)
Port 1
für den QLogic-Adapter aus.
8.
Führen Sie auf der Seite „Device Level Configuration“ (Konfiguration auf
Geräteebene) ( Abbildung 11-9 ) die folgenden Schritte aus:
a.
Setzen Sie
Virtualization Mode
(Virtualisierungsmodus) auf
SR-IOV
.
b.
Klicken Sie auf
Back
(Zurück).
204 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Linux
Abbildung 11-9. Systemeinrichtung für SR-IOV: Integrierte Geräte
9.
Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf
Finish
(Fertigstellen), speichern Sie Ihre Einstellungen und starten Sie das
System anschließend neu.
10. So aktivieren und überprüfen Sie die Virtualisierung: a.
Öffnen Sie die Datei grub.conf
und konfigurieren Sie den Parameter iommu
, wie unter
dargestellt.
Fügen Sie bei Intel-basierten Systemen intel_iommu=on
hinzu.
Fügen Sie bei AMD-basierten Systemen amd_iommu=on
hinzu.
205 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Linux
Abbildung 11-10. Bearbeiten der Datei „grub.conf“ für SR-IOV
b.
Speichern Sie die Datei grub.conf
und starten Sie das System anschließend neu.
c.
Um zu überprüfen, ob die Änderungen umgesetzt wurden, führen Sie den folgenden Befehl aus:
dmesg | grep -I iommu
Das Ergebnis eines erfolgreichen Befehls für die
E/A-Ausgabe-Speicherverwaltungseinheit (IOMMU) könnte beispielsweise wie folgt aussehen:
Intel-IOMMU: enabled d.
Um die VF-Details (Anzahl der VFs und Gesamtzahl der VFs) anzuzeigen, führen Sie folgenden Befehl aus:
find /sys/|grep -I sriov
206 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Linux
11.
Aktivieren Sie für einen spezifischen Port eine VF-Menge.
a.
Führen Sie den folgenden Befehl aus, um beispielsweise 8 VFs auf der PCI-Instanz 04:00.0 (Bus 4, Gerät 0, Funktion 0) zu aktivieren:
[root@ah-rh68 ~]# echo 8 >
/sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs
b.
Überprüfen Sie die Befehlsausgabe ( Abbildung 11-11 ), um zu
bestätigen, dass tatsächliche VFs auf dem Bus 4, auf Gerät 2 (über den Parameter 0000:00:02.0) und über die Funktionen 0 bis 7 erstellt wurden. Beachten Sie, dass die tatsächliche Gerät-ID von den PFs
(in diesem Beispiel 8070) im Vergleich zu den VFs (in diesem Beispiel
9090) abweicht.
Abbildung 11-11. Befehlsausgabe für sriov_numvfs
12. Führen Sie zum Anzeigen einer Liste alle PF- und VF-Schnittstellen den folgenden Befehl aus:
#
ip link show | grep -i vf -b2
207 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Linux
zeigt ein Beispiel für die Ausgabe an.
Abbildung 11-12. Befehlsausgabe für den Befehl „ip link show“
13. Weisen Sie MAC-Adressen zu und überprüfen Sie diese: a.
Führen Sie zum Zuweisen einer MAC-Adresse auf der VF den folgenden Befehl aus:
ip link set <pf device> vf <vf index> mac <mac address>
b.
Stellen Sie sicher, dass die VF-Schnittstelle mit der zugewiesenen
Schnittstelle betriebsbereit ist.
14. Schalten Sie die VM aus und verbinden Sie die VF. (Einige Betriebssysteme unterstützen das Anschließen von VFs an die VM im laufenden Betrieb, also
über das Hot-Plug-Verfahren.) a.
Klicken Sie im Dialogfeld „Virtual Machine“ (Virtuelle Maschine)
) auf
Add Hardware
(Hardware hinzufügen).
208 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter Linux
Abbildung 11-13. RHEL68 – Virtuelle Maschine
b.
Klicken Sie im linken Fenster des Dialogfelds „Add New Virtual
Hardware“ (Neue virtuelle Hardware hinzufügen) (
) auf
PCI Host Device
(PCI-Host-Gerät). c.
Wählen Sie im rechten Fenster ein Host-Gerät aus.
d.
Klicken Sie auf
Finish
(Fertigstellen).
209 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter VMware
Abbildung 11-14. Neue virtuelle Hardware hinzufügen
15. Schalten Sie die virtuelle Maschine ein und führen Sie dann den folgenden
Befehl aus:
check lspci -vv|grep -I ether
16. Installieren Sie die Treiber für die in der VM erkannten Adapter. Verwenden
Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers (verwenden
Sie nicht die enthaltenen Treiber). Es muss die gleiche Treiberversion auf dem Host und der VM installiert sein.
17. Fügen Sie bei Bedarf weitere VFs zur VM hinzu.
Konfigurieren von SR-IOV unter VMware
So konfigurieren Sie SR-IOV unter VMware:
1.
Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf
System BIOS Settings
(System-BIOS-Einstellungen).
2.
Klicken Sie auf der Seite „System BIOS Settings“ (Sytem-BIOS-Einstellungen) auf
Integrated Devices
(Integrierte Geräte).
3.
Führen Sie auf der Seite „Integrated Devices“ (Integrierte Geräte) (siehe
Abbildung 11-1 auf Seite 197 ) die folgenden Schritte aus:
a.
Setzen Sie die Option
SR-IOV Global Enable
(SR-IOV global aktivieren) auf
Enabled
(Aktiviert).
b.
Klicken Sie auf
Back
(Zurück).
4.
Klicken Sie im Fenster „System Setup“ (Systemeinrichtung) auf die Option
Device Settings
(Geräteeinstellungen).
210 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter VMware
5.
Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) einen Port für den 25-G-Adapter der 41
xxx
-Serie.
6.
Führen Sie auf der Seite „Device Level Configuration“ (Konfiguration auf
Geräteebene) ( Abbildung 11-2 auf Seite 197 ) die folgenden Schritte aus:
a.
Setzen Sie
Virtualization Mode
(Virtualisierungsmodus) auf
SR-IOV
.
b.
Klicken Sie auf
Back
(Zurück).
7.
Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf
Finish
(Fertigstellen).
8.
Speichern Sie die Konfigurationseinstellungen und starten Sie das System neu.
9.
Um die erforderliche Anzahl an VFs pro Port (in diesem Beispiel 16 auf jedem Port eines Dual-Port-Adapters) zu aktivieren, führen Sie den folgenden Befehl aus:
"esxcfg-module -s "max_vfs=16,16" qedentv"
ANMERKUNG
Jede Ethernet-Funktion von Adapter der 41
xxx
-Serie muss über einen eigenen Eintrag verfügen.
10. Starten Sie den Host neu.
11.
Um zu überprüfen, ob die Änderungen auf der Modulebene umgesetzt wurden, führen Sie den folgenden Befehl aus:
"esxcfg-module -g qedentv"
[root@localhost:~] esxcfg-module -g qedentv qedentv enabled = 1 options = 'max_vfs=16,16'
12. Um zu überprüfen, ob die VFs tatsächlich erstellt wurden, führen Sie den
Befehl lspci
wie folgt aus:
[root@localhost:~]
lspci | grep -i QLogic | grep -i 'ethernet\|network' | more
0000:05:00.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx 10/25
GbE Ethernet Adapter [vmnic6]
0000:05:00.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx 10/25
GbE Ethernet Adapter [vmnic7]
0000:05:02.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_0]
0000:05:02.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_1]
0000:05:02.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_2]
211 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter VMware
.
.
0000:05:02.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xQL41xxxxx
Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_3]
.
0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15]
0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0]
0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1]
.
.
0000:05:0e.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_2]
0000:05:0e.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_3]
.
0000:05:0f.6 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_14]
0000:05:0f.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_15]
13. Verbinden Sie VFs wie folgt mit der VM: a.
Schalten Sie die virtuelle Schnitstelle ein und verbinden Sie die VF.
(Einige Betriebssysteme unterstützen das Anschließen von VFs an die
VM im laufenden Betrieb, also über das Hot-Plug-Verfahren.) b.
Fügen Sie einen Host zur VMware vCenter Server Virtual Appliance
(vCSA) hinzu.
c.
Klicken Sie auf die Option
Edit Settings
(Einstellungen bearbeiten) der VM.
14. Füllen Sie das Dialogfeld „Edit Settings“ (Einstellungen bearbeiten)
(
Abbildung 11-15 ) wie folgt aus:
a.
Wählen Sie im Feld
New Device
(Neues Gerät) die Option
Network
(Netzwerk) aus und klicken Sie dann auf
Add
(Hinzufügen).
b.
Wählen Sie
SR-IOV Passthrough
(SR-IOV-PassThrough) als
Adapter Type
(Adaptertyp) aus.
c.
Wählen Sie für
Physical Function
(Physische Funktion) die QLogic
VF aus.
d.
Um Ihre Konfigurationsänderungen zu speichern und dieses
Dialogfeld zu schließen, klicken Sie auf
OK
.
212 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter VMware
Abbildung 11-15. VMware-Host – Einstellungen bearbeiten
15. Um die VFs pro Port zu überprüfen, führen Sie den Befehl esxcli
wie folgt aus:
[root@localhost:~]
esxcli network sriovnic vf list -n vmnic6
VF ID Active PCI Address Owner World ID
----- ------ ----------- --------------
0 true 005:02.0 60591
213 AH0054602-01 F
11–SR-IOV-Konfiguration
Konfigurieren von SR-IOV unter VMware
1 true 005:02.1 60591
2 false 005:02.2 -
3 false 005:02.3 -
4 false 005:02.4 -
5 false 005:02.5 -
6 false 005:02.6 -
7 false 005:02.7 -
8 false 005:03.0 -
9 false 005:03.1 -
10 false 005:03.2 -
11 false 005:03.3 -
12 false 005:03.4 -
13 false 005:03.5 -
14 false 005:03.6 -
15 false 005:03.7 -
16. Installieren Sie die QLogic-Treiber für die in der VM erkannten Adapter.
Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers
(verwenden Sie nicht die enthaltenen Treiber). Es muss die gleiche
Treiberversion auf dem Host und der VM installiert sein.
17. Schalten Sie die VM ein und führen Sie dann den Befehl ifconfig -a aus, um zu überprüfen, dass die hinzugefügte Netzwerkschnittstelle aufgeführt wird.
18.
Fügen Sie bei Bedarf weitere VFs zur VM hinzu.
214 AH0054602-01 F
12
NVMe-oF-Konfiguration mit RDMA
Mit der Funktion für den Zugriff auf den nicht-flüchtigen Speicher über Fabrics
(NVMe-oF) ist es möglich, die Verwendung alternativer Transportmöglichkeiten auf
PCIe zu aktivieren, um die Spanne zu erweitern, über die ein NVMe-Host-Gerät und ein NVMe-Speichertreiber oder Subsystem sich miteinander verbinden können.
NVMe-oF definiert eine allgemeine Architektur, die einen Bereich von
Speichernetzwerk-Fabrics für das NVMe-Block-Speicherprotokoll über einen
Speichernetzwerk-Fabric unterstützt. Diese Architektur umfasst das Archivieren einer Frontschnittstelle in Speichersysteme, das Skalieren auf eine große Anzahl von NVMe-Geräten und das Erweitern der Distanz innerhalb eines Rechenzentrums,
über das auf NVMe-Geräte und NVMe-Subsysteme zugegriffen werden kann.
Die in diesem Kapitel beschriebenen NVMe-oF-Konfigurationsverfahren und
-Optionen gelten für ethernetbasierte RDMA-Protokolle, darunter auch RoCE und iWARP. Die Entwicklung von NVMe-oF mit RDMA wird durch eine technische
Untergruppe der NVMe-Organisation definiert.
Dieses Kapitel zeigt, wie NVMe-oF auf einem einfachen Netzwerk konfiguriert wird. Die Beispielnetzwerk umfasst Folgendes:
Zwei Server: einen Initiator und ein Ziel. Der Zielserver ist mit einem
PCIe-SSD-Laufwerk ausgestattet.
Betriebssystem: RHEL 7.4 oder SLES 12 SP3 auf beiden Servern
Zwei Adapter: Ein auf jedem Server installierter Adapter der 41
xxx
-Serie.
Jeder Port kann unabhängig zur Verwendung von RoCE, RoCEv2 oder iWARP als RDMA-Protokoll, über das NVMe-oF ausgeführt wird, konfiguriert werden.
Bei RoCE und RoCEv2 wurde ein optionaler Switch für Data Center
Bridging (DCB), die entsprechende Richtlinie für die Servicequalität (QoS) und vLANs konfiguriert, um die Priorität der RoCE/RoCEv2
DCB-P-Datenübertragungsklasse für NVMe-oF zu tragen. Der Switch wird nicht benötigt, wenn NVMe-oF iWARP verwendet.
215 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Abbildung 12-1 stellt ein Beispielnetzwerk dar.
Adapter der 41
xxx
-Serie
Adapter der 41
xxx
-Serie
Abbildung 12-1. NVMe-oF-Netzwerk
Der NVMe-oF-Konfigurationsprozess umfasst die folgenden Verfahren:
1.
Installieren von Gerätetreibern auf beiden Servern
2.
3.
Konfigurieren des Initiatorservers
4.
5.
6.
216 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Installieren von Gerätetreibern auf beiden Servern
Installieren von Gerätetreibern auf beiden Servern
Installieren Sie nach der Installation Ihres Betriebssystems (RHEL 7.4 oder SLES
12 SP3) die Gerätetreiber auf beiden Servern. Gehen Sie zum Aufrüsten des
Kernels auf den aktuellen Linux-Upstream-Kernel zu <URL>.
https://www.kernel.org/pub/linux/kernel/v4.x/
1.
Installieren und laden Sie die aktuellen FastLinQ-Treiber (QED, QEDE, libqedr/QEDR), indem Sie allen Installationsanweisungen in der Infodatei folgen.
2.
(Optional) Wenn Sie den BS-Kernel aufgerüstet haben, müssen Sie die aktuellsten Treiber wie folgt neu installieren und laden: a.
Installieren Sie die aktuellste FastLinQ-Firmware gemäß den in der
INFO-Datei genannten Installationsanweisungen.
b.
Installieren Sie die BS-RDMA-Support-Anwendungen und
Bibliotheken, indem Sie die folgenden Befehle eingeben und ausführen:
#
yum groupinstall "Infiniband Support"
#
yum install tcl-devel libibverbs-devel libnl-devel glib2-devel libudev-devel lsscsi perftest
#
yum install gcc make git ctags ncurses ncurses-devel openssl* openssl-devel elfutils-libelf-devel*
c.
Um sicherzustellen, dass sich der NVMe-OFED-Support im ausgewählten BS-Kernel befindet, geben Sie den folgenden Befehl ein und führen ihn aus:
make menuconfig
d.
Stellen Sie unter
Device Drivers
(Gerätetreiber) sicher, dass
Folgendes aktiviert (auf
M
gesetzt) ist:
NVM Express block devices
NVM Express over Fabrics RDMA host driver
NVMe Target support
NVMe over Fabrics RDMA target support e.
(Optional) Wenn die Optionen für
Device Drivers
(Gerätetreiber) nicht bereits vorhanden sind, bauen Sie den Kernel durch das Eingeben und
Ausführen der folgenden Befehle wieder auf:
#
make
#
make modules
#
make modules_install
#
make install
217 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Konfigurieren des Zielservers f.
Wenn Änderungen am Kernel vorgenommen wurden, starten Sie in diesen neuen BS-Kernel neu. Weitere Anweisungen zum Festlegen des Standard-Startkernel finden Sie unter: https://wiki.centos.org/HowTos/Grub2
3.
Aktivieren und starten Sie den RDMA-Dienst wie folgt:
#
systemctl enable rdma.service
#
systemctl start rdma.service
Ignorieren Sie den Fehler
RDMA Service Failed
(RDMA-Dienst fehlgeschlagen). Alle OFED-Module, die für QEDR benötigt werden, sind bereits geladen.
Konfigurieren des Zielservers
Konfigurieren Sie den Ziel-Server nach dem Neustartprozess. Sobald der Server betriebsbereit ist, ist für alle Änderungen an der Konfiguration ein Neustart erforderlich. Wenn Sie für die Konfiguration des Zielservers ein Start-Script verwenden, erwägen Sie, das Script (über den Befehl wait
oder einen ähnlichen
Befehl) nach Bedarf anzuhalten, um damit sicherzustellen, dass jeder Befehl vor der Ausführung des nächsten Befehls ausgeführt wurde.
So konfigurieren Sie den Zieldienst:
1.
Laden Sie die Zielmodule. Führen Sie die folgenden Befehle nach jedem einzelnen Server-Neustart aus:
#
modprobe qedr
#
modprobe nvmet; modprobe nvmet-rdma
#
lsmod | grep nvme
(Bestätigen Sie, dass die Module geladen wurden.)
2.
Erstellen Sie den qualifizierten Namen für NVMe (NQN) für das
Ziel-Subsystem mit dem Namen, der durch
<nvme-subsystem-name> angegeben wurde. Verwenden Sie die NVMe-oF-Spezifikationen. Beispiel: nqn.<YEAR>-<Month>.org.<IHR-your-company>
.
#
mkdir /sys/kernel/config/nvmet/subsystems/<nvme-subsystem-name>
#
cd /sys/kernel/config/nvmet/subsystems/<nvme-subsystem-name>
3.
Erstellen Sie nach Bedarf mehrere eindeutige NQNs für zusätzliche
NVMe-Geräte.
218 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Konfigurieren des Zielservers
4.
Legen Sie die unter
Tabelle 12-1 aufgelisteten Zielparameter fest.
Tabelle 12-1. Zielparameter
Befehl
#
echo 1 > attr_allow_any_host
#
mkdir namespaces/1
#
echo -n /dev/nvme0n1 >namespaces/
1/device_path
Beschreibung
Ermöglichen Sie es allen Hosts, eine Verbindung aufzubauen.
Erstellen Sie einen Namespace.
Legen Sie den NVMe-Gerätepfad fest. Der
NVMe-Gerätepfad kann sich von System zu System unterscheiden. Überprüfen Sie den Gerätepfad anhand des Befehls lsblk
. Dieses System hat zwei NVMe-Geräte: nvme0n1
und nvme1n1
.
#
echo 1 > namespaces/1/enable
#
mkdir /sys/kernel/config/nvmet/ ports/1
#
cd /sys/kernel/config/nvmet/ports/1
#
echo 1.1.1.1 > addr_traddr
Aktivieren Sie den Namespace.
Erstellen Sie NVMe-Port 1.
#
#
#
echo rdma > addr_trtype
echo 4420 > addr_trsvcid
echo ipv4 > addr_adrfam
Legen Sie die gleiche IP-Adresse fest. So steht beispielsweise „1.1.1.1“ für die IP-Adresse des
Zielports des Adapter der 41
xxx
-Serie.
Legen Sie den Transporttyp auf RDMA fest.
Legen Sie die RDMA-Portnummer fest. Die Steckplatz-Portnummer für NVMe-oF ist in der Regel
4420. Es kann jedoch jede Portnummer verwendet werden, wenn Sie über die gesamte Konfiguration hinweg einheitlich verwendet wird.
Legen Sie den IP-Adresstyp fest.
5.
Erstellen Sie eine symbolische Verbindung (symlink) zum neu erstellten
NQN-Subsystem:
#
ln -s /sys/kernel/config/nvmet/subsystems/ nvme-subsystem-name subsystems/nvme-subsystem-name
219 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Konfigurieren des Initiatorservers
6.
Bestätigen Sie wie folgt, dass das NVMe-Ziel auf dem Port hört:
#
dmesg | grep nvmet_rdma
[ 8769.470043] nvmet_rdma: enabling port 1 (1.1.1.1:4420)
Konfigurieren des Initiatorservers
Sie konfigurieren den Initiator-Server nach dem Neustartprozess. Sobald der
Server betriebsbereit ist, ist für alle Änderungen an der Konfiguration ein Neustart erforderlich. Wenn Sie für die Konfiguration des Initiator-Servers ein Start-Script verwenden, erwägen Sie, das Script (über den Befehl wait
oder einen ähnlichen
Befehl) nach Bedarf anzuhalten, um damit sicherzustellen, dass jeder Befehl vor der Ausführung des nächsten Befehls ausgeführt wurde.
So konfigurieren Sie den Initiator-Server:
1.
Laden Sie die NVMe-Module. Geben Sie die folgenden Befehle nach jedem einzelnen Server-Neustart aus:
#
modprobe qedr
#
modprobe nvme-rdma
2.
Laden Sie das Initiatordienstprogramm
nvme-cli herunter, und kompilieren und installieren Sie es. Führen Sie die folgenden Befehle bei der ersten Konfiguration aus. Es ist nicht erforderlich, diese Befehle nach jedem einzelnen Neustart auszuführen.
#
git clone https://github.com/linux-nvme/nvme-cli.git
#
cd nvme-cli
#
make && make install
3.
Überprüfen Sie die Installationsversion wie folgt:
#
nvme version
4.
Ermitteln Sie das NVMe-oF-Ziel wie folgt:
#
nvme discover -t rdma -a 1.1.1.1 -s 1023
Notieren Sie die Subsystem-NQN ( subnqn
) des ermittelten Ziels
(
Abbildung 12-2 ) zur Verwendung in Schritt 5
.
220 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Konfigurieren des Initiatorservers
Abbildung 12-2. Subsystem-NQN
5.
Stellen Sie anhand der NQN eine Verbindung zum ermittelten NVMe-oF-Ziel
( nvme-qlogic-tgt1
) her. Führen Sie den folgenden Befehl nach jedem einzelnen Server-Neustart aus. Zum Beispiel:
#
nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023
6.
Bestätigen Sie wie folgt die NVMe-oF-Zielverbindung mit dem
NVMe-oF-Gerät:
#
dmesg | grep nvme
#
lsblk
#
list nvme
zeigt ein Beispiel.
Abbildung 12-3. NVMe-oF-Verbindung bestätigen
221 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Vorbehandeln des Zielservers
Vorbehandeln des Zielservers
NVMe-Zielserver, die vorkonfiguriert getestet werden, zeigen eine höhere Leistung als erwartet. Bevor Sie einen Benchmarking-Test durchführen, muss der Zielserver zunächst
vorausgefüllt
oder
vorbehandelt
werden.
So behandeln Sie den Zielserver vor:
1.
Führen Sie ein sicheres Löschen (Secure-Erase) des Zielservers mit anbieterspezifischen Werkzeugen (ähnlich dem Formatieren) durch. In diesem Test wird ein Intel NVMe SSD-Gerät verwendet, für das das Intel
Data Center Tool benötigt wird, das über den folgenden Link heruntergeladen werden kann: https://downloadcenter.intel.com/download/23931/Intel-Solid-State-Drive-
Data-Center-Tool
2.
Behandeln Sie den Zielserver ( nvme0n1
) mit Daten, die gewährleisten, dass der gesamte verfügbare Speicher gefüllt ist. In diesem Beispiel wird das
„DD“-Festplattendienstprogramm verwendet:
#
dd if=/dev/zero bs=1024k of=/dev/nvme0n1
Testen der NVMe-oF-Geräte
Vergleichen Sie die Latenz des lokalen NVMe-Geräts auf dem Zielserver mit der des NVMe-oF-Geräts auf dem Initiatorserver, um die Latenz zu zeigen, um die das System durch NVMe erweitert wurde.
So testen Sie das NVMe-oF-Gerät:
1.
Aktualisieren Sie die Repository (Repo)-Quelle und installieren Sie wie folgt das Flexible Input/Output (FIO)-Benchmark-Dienstprogramm auf dem Ziel- und dem Initiatorserver:
#
yum install epel-release
#
yum install fio
Abbildung 12-4. FIO-Dienstprogramm-Installation
222 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Testen der NVMe-oF-Geräte
2.
Führen Sie das FIO-Dienstprogramm aus, um die Latenz des
Initiator-NVMe-oF-Geräts zu messen. Geben Sie den folgenden Befehl aus:
#
fio --filename=/dev/nvme0n1 --direct=1 --time_based
--rw=randread --refill_buffers --norandommap --randrepeat=0
--ioengine=libaio --bs=4k --iodepth=1 --numjobs=1
--runtime=60 --group_reporting --name=temp.out
FIO meldet zwei Latenztypen: Übermittlung und Fertigstellung. Die
Übermittlungslatenz (submission latency, slat) misst die Latenz von der
Anwendung zum Kernel. Die Fertigstellungslatenz (completion latency, clat) misst die durchgängige Kernel-Latenz. Das branchenweit anerkannte
Verfahren muss
clat percentiles
im 99. Bereich lauten.
In diesen Beispiel beträgt die NVMe-oF-Latenz auf dem Initiatorgerät 30 μsec.
3.
Führen Sie das FIO-Dienstprogramm aus, um die Latenz des lokalen
NVMe-Geräts auf dem Zielserver zu messen. Geben Sie den folgenden
Befehl aus:
#
fio --filename=/dev/nvme0n1 --direct=1 --time_based
--rw=randread --refill_buffers --norandommap --randrepeat=0
--ioengine=libaio --bs=4k --iodepth=1 --numjobs=1
--runtime=60 --group_reporting --name=temp.out
In diesem Beispiel beträgt die NVMe-Gerätelatenz 8 usec. Die Gesamtlatenz, die sich aus der Verwendung von NVMe-oF ergibt, ist die Differenz zwischen der NVMe-oF-Latenz des Initiatorgeräts (30 usec) und der NVMe-oF-Latenz des Zielgeräts (8 usec), anders ausgedrückt 22 usec.
4.
Führen Sie das FIO-Dienstprogramm aus, um die Bandbreite des lokalen
NVMe-Geräts auf dem Zielserver zu messen. Geben Sie den folgenden
Befehl aus: fio --verify=crc32 --do_verify=1 --bs=8k --numjobs=1
--iodepth=32 --loops=1 --ioengine=libaio --direct=1
--invalidate=1 --fsync_on_close=1 --randrepeat=1
--norandommap --time_based --runtime=60
--filename=/dev/nvme0n1 --name=Write-BW-to-NVMe-Device
--rw=randwrite wobei
--rw
für Nur-Lesevorgänge randread
lauten kann, randwrite
für
Nur-Schreibvorgänge und randrw
für Lese- und Schreibvorgänge.
223 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Optimieren der Leistung
Optimieren der Leistung
So optimieren Sie die Leistung auf dem Initiator- und dem Zielserver:
1.
Konfigurieren Sie die folgenden System-BIOS-Einstellungen:
Power Profiles (Stromversorgungsprofile) = Max Performance
(Maximale Leistung) oder äquivalent
ALL C-States (ALLE C-Zustände) = disabled (deaktiviert)
Hyperthreading = disabled (deaktiviert)
2.
Konfigurieren Sie die Linux-Kernel-Parameter durch das Bearbeiten der
Datei grub
(
/etc/default/grub
). a.
Fügen Sie Parameter an das Ende der Zeile
GRUB_CMDLINE_LINUX hinzu:
GRUB_CMDLINE_LINUX="
nosoftlockup intel_idle.max_cstate=0 processor.max_cstate=1 mce=ignore_ce idle=poll
" b.
Speichern Sie die grup-Datei.
c.
Stellen Sie die grub
-Datei wieder her. Um die grub
-Datei für einen
Legacy-BIOS-Boot-Vorgang wiederherzustellen, führen Sie den folgenden Befehl aus:
#
grub2-mkconfig -o /boot/grub2/grub.cfg
(Legacy-BIOS-Boot-Vorgang)
Um die grub
-Datei für einen EFI-Boot-Vorgang wiederherzustellen, führen Sie den folgenden Befehl aus:
#
grub2-mkconfig -o /boot/efi/EFI/
<os>
/grub.cfg
(EFI-Boot-Vorgang)) d.
Starten Sie den Server neu, um die Änderungen anzuwenden.
3.
Legen Sie die IRQ-Affinität für alle Adapter der 41
xxx
-Serie fest. Die multi_rss-affin.sh
-Datei ist eine Script-Datei, die unter
(multi_rss-affin.sh)“ auf Seite 225 aufgeführt ist.
#
systemctl stop irqbalance
#
./multi_rss-affin.sh eth1
ANMERKUNG
Eine andere Version dieses Scripts, qedr_affin.sh
, ist im
41
xxx
-Linux-Quellcode-Paket im Verzeichnis
\add-ons\performance\roce
enthalten. Eine Erläuterung der
IRQ-Affinitätseinstellungen finden Sie in der Datei multiple_irqs.txt
in diesem Verzeichnis.
224 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Optimieren der Leistung
4.
Legen Sie das CPU-Intervall fest. Die cpufreq.sh
-Datei ist eine Script-Datei, die unter
„CPU-Intervall (cpufreq.sh)“ auf Seite 226 aufgeführt ist.
#
./cpufreq.sh
In den folgenden Abschnitten werden die Scripte aufgeführt, die in Schritt 3
und
verwendet werden.
.IRQ-Affinität (multi_rss-affin.sh)
Das folgende Script legt die IRQ-Affinität fest.
#!/bin/bash
#RSS affinity setup script
#input: the device name (ethX)
#OFFSET=0 0/1 0/1/2 0/1/2/3
#FACTOR=1 2 3 4
OFFSET=0
FACTOR=1
LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2'
MAXCPUID='echo 2 $LASTCPU ^ p | dc'
OFFSET='echo 2 $OFFSET ^ p | dc'
FACTOR='echo 2 $FACTOR ^ p | dc'
CPUID=1 for eth in $*; do
NUM='grep $eth /proc/interrupts | wc -l'
NUM_FP=$((${NUM}))
INT='grep -m 1 $eth /proc/interrupts | cut -d ":" -f 1' echo "$eth: ${NUM} (${NUM_FP} fast path) starting irq ${INT}"
CPUID=$((CPUID*OFFSET)) for ((A=1; A<=${NUM_FP}; A=${A}+1)); do
INT='grep -m $A $eth /proc/interrupts | tail -1 | cut -d ":" -f 1'
SMP='echo $CPUID 16 o p | dc' echo ${INT} smp affinity set to ${SMP} echo $((${SMP})) > /proc/irq/$((${INT}))/smp_affinity
CPUID=$((CPUID*FACTOR)) if [ ${CPUID} -gt ${MAXCPUID} ]; then
CPUID=1
CPUID=$((CPUID*OFFSET))
225 AH0054602-01 F
12–NVMe-oF-Konfiguration mit RDMA
Optimieren der Leistung fi done done
CPU-Intervall (cpufreq.sh)
Mit dem folgenden Script wird das CPU-Intervall festgelegt.
#Usage "./nameofscript.sh" grep -E '^model name|^cpu MHz' /proc/cpuinfo cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f
$CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor
So konfigurieren Sie die Netzwerk- oder Speichereinstellungen:
sysctl -w net.ipv4.tcp_mem="16777216 16777216 16777216" sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216" sysctl -w net.ipv4.tcp_rmem="4096 87380 16777216" sysctl -w net.core.wmem_max=16777216 sysctl -w net.core.rmem_max=16777216 sysctl -w net.core.wmem_default=16777216 sysctl -w net.core.rmem_default=16777216 sysctl -w net.core.optmem_max=16777216 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_window_scaling=0 sysctl -w net.ipv4.tcp_adv_win_scale=1
ANMERKUNG
Die folgenden Befehle gelten nur für den Initiatorserver.
#
echo noop > /sys/block/nvme0n1/queue/scheduler
#
echo 0 > /sys/block/nvme0n1/queue/add_random
#
echo 2 > /sys/block/nvme0n1/queue/nomerges
226 AH0054602-01 F
13
Windows Server 2016
Dieser Abschnitt enthält die folgenden Informationen zu Windows Server 2016:
Konfigurieren von RoCE-Schnittstellen mit Hyper-V
„RoCE über Switch – Eingebettetes Teaming“ auf Seite 233
„Konfigurieren von QoS für RoCE“ auf Seite 235
„Konfigurieren von VMMQ“ auf Seite 243
„Konfigurieren von VXLAN“ auf Seite 250
„Konfigurieren der Funktion „Direkte Speicherplätze““ auf Seite 252
„Implementieren und Verwalten eines Nano-Servers“ auf Seite 259
Konfigurieren von RoCE-Schnittstellen mit Hyper-V
In Windows Server 2016 mit Hyper-V mit Network Direct Kernel Provider Interface
(NDKPI) Mode-2 unterstützen virtuelle Host-Netzwerkadapter (virtuelle Host-NICs)
RDMA.
ANMERKUNG
DCBX ist für RoCE über Hyper-V erforderlich. Führen Sie einen der folgenden Schritte für die Konfiguration von DCBX durch:
Konfiguration über HII (siehe
„Vorbereiten des Adapters“ auf Seite 71
).
Konfiguration über QoS (siehe
„Konfigurieren von QoS für RoCE“ auf
).
Zu den in diesem Abschnitt beschriebenen RoCE-Konfigurationsabläufen gehören:
Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen RDMA-NIC
Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC
Überprüfen, ob RoCE aktiviert ist
Hinzufügen von virtuellen Host-NICs (virtuelle Ports)
Zuordnen des SMB-Laufwerks und Ausführen von RoCE-Datenverkehr
227 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von RoCE-Schnittstellen mit Hyper-V
Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen RDMA-NIC
Führen Sie die in diesem Abschnitt beschriebenen Schritte aus, um einen virtuellen
Hyper-V-Switch zu erstellen und RDMA in der VNIC zu aktivieren.
So erstellen Sie einen virtuellen Hyper-V-Switch mit einer virtuellen
RDMA-NIC:
1.
Starten Sie Hyper-V Manager.
2.
Klicken Sie auf
Virtual Switch Manager
(Manager für virtuellen Switch)
(siehe
Abbildung 13-1. Aktivieren von RDMA auf der virtuellen Host-NIC
3.
Erstellen Sie einen virtuellen Switch.
4.
Aktivieren Sie das Kontrollkästchen
Allow management operating system to share this network adapter
(Verwaltungsbetriebssystem die Freigabe dieses Netzwerkadapters genehmigen).
In Windows Server 2016 wurde ein neuer Parameter – Network Direct (RDMA) – zur virtuellen Host-NIC hinzugefügt.
228 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von RoCE-Schnittstellen mit Hyper-V
So aktivieren Sie RDMA auf einer virtuellen Host-NIC:
1.
Öffnen Sie das Fenster „Hyper-V Virtual Ethernet Adapter Properties“
(Eigenschaften für den virtuellen Hyper-V-Ethernet-Adapter).
2.
Klicken Sie auf die Registerkarte
Advanced
(Erweitert).
3.
Führen Sie auf der Seite „Advanced“ (Erweitert) (
) die folgenden Schritte aus: a.
Wählen Sie unter
Property
(Eigenschaft) die Option
Network Direct
(RDMA)
aus.
b.
Wählen Sie unter
Value
(Wert) die Option
Enabled
(Aktiviert) aus.
c.
Klicken Sie auf
OK
.
Abbildung 13-2. Eigenschaften für den virtuellen Hyper-V-Ethernet-Adapter
4.
Führen Sie zum Aktivieren von RDMA den folgenden Windows
PowerShell-Befehl aus:
PS C:\Users\Administrator>
Enable-NetAdapterRdma "vEthernet
(New Virtual Switch)"
PS C:\Users\Administrator>
229 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von RoCE-Schnittstellen mit Hyper-V
Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC
So fügen Sie eine VLAN-ID zu einer virtuellen Host-NIC hinzu:
1.
Um den Namen der virtuellen Host-NIC zu ermitteln, führen Sie den folgenden
Windows PowerShell-Befehl aus:
PS C:\Users\Administrator>
Get-VMNetworkAdapter -ManagementOS
zeigt die Befehlsausgabe.
Abbildung 13-3. Windows PowerShell-Befehl: Get-VMNetworkAdapter
2.
Um die VLAN-ID auf der virtuellen Host-NIC festzulegen, führen Sie den folgenden Windows PowerShell-Befehl aus:
PS C:\Users\Administrator>
Set-VMNetworkAdaptervlan
-VMNetworkAdapterName "New Virtual Switch" -VlanId 5 -Access
-Management05
ANMERKUNG
Beachten Sie den folgenden Hinweis zum Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC:
Eine VLAN-ID muss einer virtuellen Host-NIC zugewiesen werden.
Dieselbe VLAN-ID muss allen Schnittstellen und dem Switch zugewiesen werden.
Stellen Sie sicher, dass Sie die VLAN-ID keiner physischen
Schnittstelle zuweisen, wenn Sie eine virtuelle Host-NIC für RoCE verwenden.
Wenn Sie mehr als eine virtuelle Host-NIC erstellen, können Sie jeder virtuellen Host-NIC VLAN eine andere VLAN zuweisen.
Überprüfen, ob RoCE aktiviert ist
So überprüfen Sie, ob RoCE aktiviert ist:
Führen Sie den folgenden Windows PowerShell-Befehl aus:
Get-NetAdapterRdma
In der Befehlsausgabe werden die für RDMA unterstützten Adapter, wie in
dargestellt, aufgelistet.
230 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von RoCE-Schnittstellen mit Hyper-V
Abbildung 13-4. Windows PowerShell-Befehl: Get-NetAdapterRdma
Hinzufügen von virtuellen Host-NICs (virtuelle Ports)
So fügen Sie virtuelle Host-NICs hinzu:
1.
Um eine virtuelle Host-NIC hinzuzufügen, führen Sie den folgenden Befehl aus:
Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name
SMB - ManagementOS
2.
Aktivieren Sie RDMA auf den virtuellen Host-NICs wie unter „So aktivieren
Sie RDMA auf einer virtuellen Host-NIC:“ auf Seite 229 dargestellt.
3.
Um eine VLAN-ID einem virtuellen Port zuzuweisen, führen Sie den folgenden Befehl aus:
Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5
-Access -ManagementOS
Zuordnen des SMB-Laufwerks und Ausführen von
RoCE-Datenverkehr
So ordnen Sie das SMB-Laufwerk zu und führen Sie den
RoCE-Datenverkehr aus:
1.
Starten Sie die Leistungsüberwachung (Perfmon).
2.
Füllen Sie das Dialogfeld „Add Counters“ (Zähler hinzufügen)
(
Abbildung 13-5 ) wie folgt aus:
a.
Wählen unter
Available counters
(Verfügbare Zähler) die Option
RDMA Activity
(RDMA-Aktivität) aus.
b.
Wählen Sie unter
Instances of selected object
(Instanzen des ausgewählten Objekts) den Adapter aus.
c.
Klicken Sie auf
Add
(Hinzufügen).
231 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von RoCE-Schnittstellen mit Hyper-V
Abbildung 13-5. Zähler hinzufügen – Dialogfeld
Wenn der RoCE-Datenverkehr ausgeführt wird, werden Zähler gemäß dem
angezeigt.
Abbildung 13-6. Leistungsüberwachung zeigt den RoCE-Datenverkehr
232 AH0054602-01 F
13–Windows Server 2016
RoCE über Switch – Eingebettetes Teaming
RoCE über Switch – Eingebettetes Teaming
Switch Embedded Teaming (SET) ist die alternative NIC-Teaming-Solution von
Microsoft, die Sie in Umgebungen mit Hyper-V und dem Software-Defined
Networking (SDN)-Stapel in Windows Server 2016 Technical Preview verwenden können. SET integriert die begrenzte NIC-Teaming-Funktionalität in den virtuellen
Hyper-V-Switch.
Verwenden Sie SET, um einen bis zu acht physische Ethernet-Netzwerkadapter in einen oder mehrere softwarebasierte virtuelle Netzwerkadapter zu gruppieren.
Diese Adapter bieten eine hohe Leistung und Fehlertoleranz beim Ausfall eines
Netzwerkadapters. Um in ein Team integriert zu werden, müssen alle
SET-Mitgliedsnetzwerkadapter auf demselben physischen Hyper-V-Host installiert werden.
In diesem Abschnitt werden die folgenden Verfahren für „RoCE über SET“ behandelt:
Erstellen eines virtuellen Hyper-V-Switches mit SET und virtuellen
Zuweisen einer VLAN-ID auf SET
Ausführen von RDMA-Datenverkehr auf SET
Erstellen eines virtuellen Hyper-V-Switches mit SET und virtuellen RDMA-NICs
So erstellen Sie einen virtuellen Hyper-V-Switch mit SET und virtuellen
RDMA-NICs:
Führen Sie zum Erstellen von SET den folgenden Windows
PowerShell-Befehl aus:
PS C:\Users\Administrator>
New-VMSwitch -Name SET
-NetAdapterName "Ethernet 2","Ethernet 3"
-EnableEmbeddedTeaming $true
zeigt die Befehlsausgabe.
Abbildung 13-7. Windows PowerShell-Befehl: New-VMSwitch
233 AH0054602-01 F
13–Windows Server 2016
RoCE über Switch – Eingebettetes Teaming
Aktivieren von RDMA auf SET
So aktivieren Sie RDMA auf SET:
1.
Führen Sie zum Anzeigen von SET auf dem Adapter den folgenden
Windows PowerShell-Befehl aus:
PS C:\Users\Administrator>
Get-NetAdapter "vEthernet (SET)"
zeigt die Befehlsausgabe.
Abbildung 13-8. Windows PowerShell-Befehl: Get-NetAdapter
2.
Führen Sie zum Aktivieren von RDMA auf SET den folgenden Windows
PowerShell-Befehl aus:
PS C:\Users\Administrator>
Enable-NetAdapterRdma "vEthernet
(SET)"
Zuweisen einer VLAN-ID auf SET
So weisen Sie eine VLAN-ID auf SET zu:
Um eine VLAN-ID auf SET zuzuweisen, führen Sie den folgenden Windows
PowerShell-Befehl aus:
PS C:\Users\Administrator>
Set-VMNetworkAdapterVlan
-VMNetworkAdapterName "SET" -VlanId 5 -Access -ManagementOS
ANMERKUNG
Beachten Sie den folgenden Hinweis beim Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC:
Stellen Sie sicher, dass Sie die VLAN-ID keiner physischen Schnittstelle zuweisen, wenn Sie eine virtuelle Host-NIC für RoCE verwenden.
Wenn Sie mehr als eine virtuelle Host-NIC erstellen, können Sie jeder virtuellen Host-NIC VLAN eine andere VLAN zuweisen.
Ausführen von RDMA-Datenverkehr auf SET
Weitere Informationen zum Ausführen von RDMA-Datenverkehr auf SET finden
Sie unter: https://technet.microsoft.com/en-us/library/mt403349.aspx
234 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von QoS für RoCE
Konfigurieren von QoS für RoCE
Sie können aus den folgenden zwei Verfahren für die Konfiguration bei der
Servicequalität (Quality of Service, QoS) auswählen:
Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter
Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter
Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter
Die gesamte Konfiguration muss auf allen verwendeten Systemen abgeschlossen sein, bevor QoS durch das Deaktivieren von DCBX auf dem Adapter konfiguriert werden kann. Prioritätsbasierte Flusskontrolle (Priority-based Flow Control, PFC), verbesserte Übertragungsdienstleistungen (Enhanced Transition Services, ETS) und die Klassenkonfiguration für den Datenverkehr müssen auf demselben
Switch und Server vorhanden sein.
So konfigurieren Sie QoS durch Deaktivieren von DCBX:
1.
Deaktivieren Sie DCBX auf dem Adapter.
2.
Setzen Sie den Wert für
RoCE Priority
(RoCE-Priorität) unter Verwendung von HII auf
0
.
3.
Führen Sie zum Installieren der DCB-Rolle in den Host den folgenden
Windows PowerShell-Befehl aus:
PS C:\Users\Administrators>
Install-WindowsFeature
Data-Center-Bridging
4.
Um den Modus
DCBX Willing
(DCBX-Bereitschaft) auf
False
(Falsch) zu setzen, führen Sie den folgenden Windows PowerShell-Befehl aus:
PS C:\Users\Administrators>
set-NetQosDcbxSetting -Willing 0
5.
Aktivieren Sie QoS wie folgt auf dem Miniport: a.
Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte
Advanced
(Erweitert).
b.
Wählen Sie auf der Seite „Advanced properties“ (Erweiterte
Eigenschaften) des Adapters ( Abbildung 13-9
) unter
Property
(Eigenschaft) die Option
Quality of Service
(Servicequalität) aus und setzen Sie den Wert auf
Enabled
(Aktiviert).
c.
Klicken Sie auf
OK
.
235 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von QoS für RoCE
Abbildung 13-9. Erweiterte Eigenschaften: QoS aktivieren
6.
Weisen Sie der Schnittstelle wie folgt die VLAN-ID zu: a.
Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte
Advanced
(Erweitert).
b.
Wählen Sie auf der Seite „Advanced properties“ (Erweiterte
Eigenschaften) des Adapters ( Abbildung 13-10
) unter
Property
(Eigenschaft) die Option
VLAN ID
(VLAN-ID) aus und legen Sie den
Wert fest.
c.
Klicken Sie auf
OK
.
ANMERKUNG
Der vorherige Schritt ist für die prioritätsbasierte Flusskontrolle (PFC) erforderlich.
236 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von QoS für RoCE
Abbildung 13-10. Erweiterte Eigenschaften: Einstellen der VLAN-ID
7.
Um die prioritätsbasierte Flusskontrolle für RoCE auf einer bestimmten
Priorität zu aktivieren, führen Sie den folgenden Befehl aus:
PS C:\Users\Administrators>
Enable-NetQoSFlowControl
-Priority 4
ANMERKUNG
Weisen Sie bei der Konfiguration von RoCE über Hyper-V der physischen Schnittstelle keine VLAN-ID zu.
8.
Um die prioritätsbasierte Flusskontrolle auf einer anderen Priorität zu deaktivieren, führen Sie den folgenden Befehl aus:
PS C:\Users\Administrator>
Disable-NetQosFlowControl 0,1,2,3,5,6,7
PS C:\Users\Administrator>
Get-NetQosFlowControl
Priority Enabled PolicySet IfIndex IfAlias
-------- ------- --------- ------- -------
0 False Global
1 False Global
2 False Global
3 False Global
237 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von QoS für RoCE
4 True Global
5 False Global
6 False Global
7 False Global
9.
Um QoS zu konfigurieren und jedem Datenverkehrstyp die relevante Priorität zuzuweisen, führen Sie die folgenden Befehle aus (wobei „Priority 4“
(Priorität 4) für RoCE und „Priority 0“ (Priorität 0) für TCP gekennzeichnet ist):
PS C:\Users\Administrators>
New-NetQosPolicy "SMB"
-NetDirectPortMatchCondition 445 -PriorityValue8021Action 4 -PolicyStore
ActiveStore
PS C:\Users\Administrators>
New-NetQosPolicy "TCP" -IPProtocolMatchCondition
TCP -PriorityValue8021Action 0 -Policystore ActiveStore
PS C:\Users\Administrator>
Get-NetQosPolicy -PolicyStore activestore
Name : tcp
Owner : PowerShell / WMI
NetworkProfile : Alle
Precedence : 127
JobObject :
IPProtocol : TCP
PriorityValue : 0
Name : smb
Owner : PowerShell / WMI
NetworkProfile : Alle
Precedence : 127
JobObject :
NetDirectPort : 445
PriorityValue : 4
10. Um ETS für alle im vorherigen Schritt definierten Datenverkehrsklassen zu konfigurieren, führen Sie die folgenden Befehle aus:
PS C:\Users\Administrators>
New-NetQosTrafficClass -name "RDMA class"
-priority 4 -bandwidthPercentage 50 -Algorithm ETS
PS C:\Users\Administrators>
New-NetQosTrafficClass -name "TCP class" -priority
0 -bandwidthPercentage 30 -Algorithm ETS
PS C:\Users\Administrator>
Get-NetQosTrafficClass
238 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von QoS für RoCE
Name Algorithm Bandwidth(%) Priority PolicySet IfIndex IfAlias
---- --------- ------------ -------- --------- ------- -------
[Default] ETS 20 2-3,5-7 Global
RDMA class ETS 50 4
TCP class ETS 30 0
Global
Global
11.
Um die Servicequalität (QoS) für den Netzwerkadapter in der vorherigen
Konfiguration anzuzeigen, führen Sie den folgenden Windows
PowerShell-Befehl aus:
PS C:\Users\Administrator>
Get-NetAdapterQos
Name : SLOT 4 Port 1
Enabled : True
Capabilities : Hardware Current
-------- -------
MacSecBypass : NotSupported NotSupported
DcbxSupport : None None
NumTCs(Max/ETS/PFC) : 4/4/4 4/4/4
OperationalTrafficClasses : TC TSA Bandwidth Priorities
-- --- --------- ----------
0 ETS 20% 2-3,5-7
1 ETS 50% 4
2 ETS 30% 0
OperationalFlowControl : Priority 4 Enabled
OperationalClassifications : Protocol Port/Type Priority
-------- --------- --------
Default 0
NetDirect 445 4
12. Erstellen Sie ein Start-Script, damit die Einstellungen bei künftigen
Systemneustarts erhalten bleiben.
13. Führen Sie den RDMA-Datenverkehr aus und überprüfen Sie ihn gemäß
„RoCE-Konfiguration“ auf Seite 69 .
Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter
Die gesamte Konfiguration muss auf allen verwendeten Systemen abgeschlossen sein. Prioritätsbasierte Flusskontrolle (Priority-based Flow Control, PFC), verbesserte Übertragungsdienstleistungen (Enhanced Transition Services, ETS) und die Klassenkonfiguration für den Datenverkehr müssen auf demselben
Switch und Server vorhanden sein.
239 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von QoS für RoCE
So konfigurieren Sie QoS durch Aktivieren von DCBX:
1.
Aktivieren Sie DCBX (IEEE, CEE oder Dynamic (Dynamisch)).
2.
Setzen Sie den Wert für
RoCE Priority
(RoCE-Priorität) unter Verwendung von HII auf
0
.
3.
Führen Sie zum Installieren der DCB-Rolle in den Host den folgenden
Windows PowerShell-Befehl aus:
PS C:\Users\Administrators>
Install-WindowsFeature
Data-Center-Bridging
ANMERKUNG
Setzen Sie für diese Konfiguration
DCBX Protocol
(DCBX-Protokoll) auf
CEE
.
4.
Um den Modus
DCBX Willing
(DCBX-Bereitschaft) auf
True
(Wahr) zu setzen, führen Sie den folgenden Befehl aus:
PS C:\Users\Administrators>
set-NetQosDcbxSetting -Willing 1
5.
Aktivieren Sie QoS wie folgt auf dem Miniport: a.
Wählen Sie auf der Seite „Advanced properties“ (Erweiterte
Eigenschaften) des Adapters ( Abbildung 13-11
) unter
Property
(Eigenschaft) die Option
Quality of Service
(Servicequalität) aus und setzen Sie den Wert auf
Enabled
(Aktiviert).
b.
Klicken Sie auf
OK
.
240 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von QoS für RoCE
Abbildung 13-11. Erweiterte Eigenschaften: Aktivieren von QoS
6.
Weisen Sie der Schnittstelle (für PFC erforderlich) wie folgt die VLAN-ID zu: a.
Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte
Advanced
(Erweitert).
b.
Wählen Sie auf der Seite „Advanced properties“ (Erweiterte
Eigenschaften) des Adapters ( Abbildung 13-12
) unter
Property
(Eigenschaft) die Option
VLAN ID
(VLAN-ID) aus und legen Sie den
Wert fest.
c.
Klicken Sie auf
OK
.
241 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von QoS für RoCE
Abbildung 13-12. Erweiterte Eigenschaften: Einstellen der VLAN-ID
7.
Um den Switch zu konfigurieren, führen Sie den folgenden Windows
PowerShell-Befehl aus:
PS C:\Users\Administrators>
Get-NetAdapterQoS
Name : Ethernet 5
Enabled : True
Capabilities : Hardware Current
-------- -------
MacSecBypass : NotSupported NotSupported
DcbxSupport : CEE CEE
NumTCs(Max/ETS/PFC) : 4/4/4 4/4/4
OperationalTrafficClasses : TC TSA Bandwidth Priorities
-- --- --------- ----------
0 ETS 5% 0-3,5-7
1 ETS 95% 4
OperationalFlowControl : Priority 4 Enabled
OperationalClassifications : Protocol Port/Type Priority
-------- --------- --------
NetDirect 445 4
242 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VMMQ
RemoteTrafficClasses : TC TSA Bandwidth Priorities
-- --- --------- ----------
0 ETS 5% 0-3,5-7
1 ETS 95% 4
RemoteFlowControl : Priority 4 Enabled
RemoteClassifications : Protocol Port/Type Priority
-------- --------- --------
NetDirect 445 4
ANMERKUNG
Das vorherige Beispiel gilt, wenn der Adapter-Port mit einem Arista
7060X-Switch verbunden ist. In diesem Beispiel ist der Switch-PFC auf Priorität
4 aktiviert. RoCE App TLVs sind definiert. Die beiden Datenverkehrsklassen sind als TC0 und TC1 definiert, hingegen ist TC1 für RoCE definiert. Der Modus
DCBX Protocol
(DCBX-Protokoll) ist auf
CEE
eingestellt. Weitere
. Wenn sich der Adapter im Modus
Willing
(Bereitschaft) befindet, akzeptiert er die Remote-Konfiguration und zeigt dies als
Operational Parameters
(Betriebsparameter) an.
Konfigurieren von VMMQ
Die Konfigurationsinformationen zur Multiqueue der virtuellen Machine (VMMQ) umfassen:
Aktivieren von VMMQ auf dem Adapter
Festlegen des VMMQ Max QPs-Standard- und Nicht-Standard-Ports
Erstellen eines Switches für eine virtuelle Maschine mit oder ohne SR-IOV
Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine
Abrufen der Funktionen für den Switch der virtuellen Maschine
Erstellen einer VM und Aktivieren von VMMQ auf VM-Netzwerkadaptern in der VM
Virtuelle Standard- und Maximum VMMQ-NIC
Aktivieren und Deaktivieren von VMMQ auf einer Verwaltungs-NIC
Überwachen der Datenverkehrsstatistik
243 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VMMQ
Aktivieren von VMMQ auf dem Adapter
So aktivieren Sie VMMQ auf dem Adapter:
1.
Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte
Advanced
(Erweitert).
2.
Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften)
(
Property
(Eigenschaft) die Option
Virtual Switch
RSS
(RSS für virtuellen Switch) und setzen Sie den Wert auf
Enabled
(Aktiviert).
3.
Klicken Sie auf
OK
.
Abbildung 13-13. Erweiterte Eigenschaften: Aktivieren von RSS auf dem virtuellen Switch
Festlegen des VMMQ Max QPs-Standard- und
Nicht-Standard-Ports
So legen Sie den VMMQ Max QPs-Standard- und Nicht-Standard-Port fest:
1.
Öffnen Sie das Fenster „Miniport“ (Miniport) und klicken Sie auf die
Registerkarte
Advanced
(Erweitert).
244 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VMMQ
2.
Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften)
(
Property
(Eigenschaft) eine der folgenden
Optionen aus:
VMMQ Max QPs – Standard-VPort
VMMQ Max QPs – Nicht-Standard-VPort
3.
Passen Sie
Wert
für die ausgewählte Eigenschaften ggf. an.
Abbildung 13-14. Erweiterte Eigenschaften: Festlegen von VMMQ
4.
Klicken Sie auf
OK
.
Erstellen eines Switches für eine virtuelle Maschine mit oder ohne SR-IOV
So erstellen Sie einen Switch für eine virtuelle Maschine mit oder ohne
SR-IOV:
1.
Starten Sie Hyper-V Manager.
2.
Wählen Sie
Virtual Switch Manager
(Manager für virtuellen Switch) aus
(siehe
3.
Geben Sie in das Feld
Name
(Name) einen Namen für den virtuellen
Switch ein.
245 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VMMQ
4.
Unter
Connection type
(Verbindungstyp): a.
Klicken Sie auf
External network
(Externes Netzwerk).
b.
Aktivieren Sie das Kontrollkästchen
Allow management operating system to share this network adapter
(Verwaltungsbetriebssystem die Freigabe dieses Netzwerkadapters genehmigen).
Abbildung 13-15. Manager für virtuellen Switch
5.
Klicken Sie auf
OK
.
246 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VMMQ
Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine
So aktivieren Sie VMMQ auf dem Switch für die virtuelle Maschine:
Führen Sie den folgenden Windows PowerShell-Befehl aus:
PS C:\Users\Administrators>
Set-VMSwitch -name q1
-defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4
Abrufen der Funktionen für den Switch der virtuellen Maschine
So rufen Sie die Funktionen für den Switch der virtuellen Maschine ab:
Führen Sie den folgenden Windows PowerShell-Befehl aus:
PS C:\Users\Administrator>
Get-VMSwitch -Name ql | fl
zeigt ein Beispiel für die Ausgabe.
Abbildung 13-16. Windows PowerShell-Befehl: Get-VMSwitch
247 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VMMQ
Erstellen einer VM und Aktivieren von VMMQ auf
VM-Netzwerkadaptern in der VM
So erstellen Sie eine virtuelle Maschine (VM) und aktivieren VMMQ auf
VM-Netzwerkadaptern in der virtuellen Maschine:
1.
Erstellen Sie eine VM.
2.
Fügen Sie den VM-Netzwerkadapter zur VM hinzu.
3.
Weisen Sie einen virtuellen Switch zum VM-Netzwerkadapter hinzu.
4.
Führen Sie zum Aktivieren von VMMQ auf der VM den folgenden Windows
PowerShell-Befehl aus:
PS C:\Users\Administrators>
set-vmnetworkadapter -vmname vm1
-VMNetworkAdapterName "network adapter" -vmmqenabled $true
-vmmqqueuepairs 4
ANMERKUNG
Bei einem SR-IOV-fähigen virtuellen Switch: Wenn der VM-Switch und die Hardware-Beschleunigung für SR-IOV aktiviert sind, müssen Sie für die Verwendung von VMMQ 10 virtuelle Maschinen mit jeweils
8 virtuellen NICs erstellen. Diese Anforderung besteht, da SR-IOV
Vorrang vor VMMQ hat.
Eine Beispielausgabe mit 64 virtuellen Funktionen und 16 VMMQs finden
Sie hier:
PS C:\Users\Administrator>
get-netadaptervport
Name ID MacAddress VID ProcMask FID State ITR QPairs
---- -- ---------- --- -------- --- ----- --- ------
Ethernet 3 0 00-15-5D-36-0A-FB 0:0 PF Activated Unknown 4
Ethernet 3 1 00-0E-1E-C4-C0-A4 0:8 PF Activated Adaptive 4
Ethernet 3 2 0:0 0 Activated Unknown 1
Ethernet 3 3 0:0 1 Activated Unknown 1
Ethernet 3 4 0:0 2 Activated Unknown 1
Ethernet 3 5 0:0 3 Activated Unknown 1
Ethernet 3 6 0:0 4 Activated Unknown 1
Ethernet 3 7 0:0 5 Activated Unknown 1
Ethernet 3 8 0:0 6 Activated Unknown 1
Ethernet 3 9 0:0 7 Activated Unknown 1
.
.
Ethernet 3 10 0:0 8 Activated Unknown 1
Ethernet 3 11 0:0 9 Activated Unknown 1
.
Ethernet 3 64 0:0 62 Activated Unknown 1
Ethernet 3 65 0:0 63 Activated Unknown 1
Ethernet 3 66 00-15-5D-36-0A-04 0:16 PF Activated Adaptive 4
248 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VMMQ
Ethernet 3 67 00-15-5D-36-0A-05 1:0 PF Activated Adaptive 4
Ethernet 3 68 00-15-5D-36-0A-06 0:0 PF Activated Adaptive 4
Name ID MacAddress VID ProcMask FID State ITR QPairs
---- -- ---------- --- -------- --- ----- --- ------
Ethernet 3 69 00-15-5D-36-0A-07 0:8 PF Activated Adaptive 4
Ethernet 3 70 00-15-5D-36-0A-08 0:16 PF Activated Adaptive 4
Ethernet 3 71 00-15-5D-36-0A-09 1:0 PF Activated Adaptive 4
Ethernet 3 72 00-15-5D-36-0A-0A 0:0 PF Activated Adaptive 4
Ethernet 3 73 00-15-5D-36-0A-0B 0:8 PF Activated Adaptive 4
Ethernet 3 74 00-15-5D-36-0A-F4 0:16 PF Activated Adaptive 4
Ethernet 3 75 00-15-5D-36-0A-F5 1:0 PF Activated Adaptive 4
Ethernet 3 76 00-15-5D-36-0A-F6 0:0 PF Activated Adaptive 4
Ethernet 3 77 00-15-5D-36-0A-F7 0:8 PF Activated Adaptive 4
Ethernet 3 78 00-15-5D-36-0A-F8 0:16 PF Activated Adaptive 4
Ethernet 3 79 00-15-5D-36-0A-F9 1:0 PF Activated Adaptive 4
Ethernet 3 80 00-15-5D-36-0A-FA 0:0 PF Activated Adaptive 4
PS C:\Users\Administrator>
get-netadaptervmq
Name InterfaceDescription
---- --------------------
Ethernet 4 QLogic FastLinQ 41
xxx
False 0:0
Queues
16 1
Virtuelle Standard- und Maximum VMMQ-NIC
Gemäß der aktuellen Implementierung sind maximal 4 VMMQs pro virtueller NIC verfügbar, also bis zu 16 virtuelle NICs.
Vier Standardwarteschlangen sind gemäß der vorherigen Festlegung über die
Windows PowerShell-Befehle verfügbar. Die maximale Standardwarteschlange kann derzeit auf 8 eingestellt werden. Um die maximale Standardwarteschlange zu überprüfen, verwenden Sie die VMswitch-Funktion.
Aktivieren und Deaktivieren von VMMQ auf einer
Verwaltungs-NIC
So aktivieren und deaktivieren Sie VMMQ auf einer Verwaltungs-NIC:
Um VMMQ auf einer Verwaltungs-NIC zu aktivieren, führen Sie den folgenden Befehl aus:
PS C:\Users\Administrator>
Set-VMNetworkAdapter –ManagementOS
–vmmqEnabled $true
Die MOS-VNIC hat vier VMMQs.
Um VMMQ auf einer Verwaltungs-NIC zu deaktivieren, führen Sie den folgenden Befehl aus:
249 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VXLAN
PS C:\Users\Administrator>
Set-VMNetworkAdapter –ManagementOS
–vmmqEnabled $false
Eine VMMQ ist auch für den kürzesten, ersten offenen Multicast-Pfad
(MOSPF) verfügbar.
Überwachen der Datenverkehrsstatistik
Um den Datenverkehr der virtuellen Funktion auf einer virtuellen Maschine zu
überwachen, führen Sie den folgenden Windows PowerShell-Befehl aus:
PS C:\Users\Administrator>
Use get-netadapterstatistics | fl
Konfigurieren von VXLAN
Die folgenden VXLAN-Konfigurationsdaten sind verfügbar:
Aktivieren von VXLAN-Offload auf dem Adapter
Implementieren eines Software Defined Network
Aktivieren von VXLAN-Offload auf dem Adapter
So aktivieren Sie VXLAN-Offload auf dem Adapter:
1.
Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte
Advanced
(Erweitert).
2.
Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften)
(
Property
(Eigenschaft) die Option
VXLAN
Encapsulated Task Offload
(Gekapselte VXLAN-Aufgabe – Offload) aus:
250 AH0054602-01 F
13–Windows Server 2016
Konfigurieren von VXLAN
Abbildung 13-17. Erweiterte Eigenschaften: Aktivieren von VXLAN
3.
Setzen Sie das Feld
Value
(Wert) auf
Enabled
(Aktiviert).
4.
Klicken Sie auf
OK
.
Implementieren eines Software Defined Network
Um die Funktion der Offload-VXLAN-Verkapselung auf virtuellen Maschinen vollständig zu nutzen, müssen Sie einen Stapel für ein Software Defined Network
(SDN) implementieren, das einen Microsoft-Netzwerk-Controller verwendet.
Weitere Details zu Software Defined Networking finden Sie unter dem folgenden
Microsoft TechNet-Link: https://technet.microsoft.com/en-us/windows-server-docs/networking/sdn/ software-defined-networking--sdn-
251 AH0054602-01 F
13–Windows Server 2016
Konfigurieren der Funktion „Direkte Speicherplätze“
Konfigurieren der Funktion „Direkte
Speicherplätze“
Mit Windows Server 2016 wird die Funktion „Direkte Speicherplätze“ eingeführt.
Mit dieser Funktion können Sie hoch verfügbare und skalierbare Speichersysteme mit lokalem Speicher aufbauen.
Weitere Informationen finden Sie unter dem folgenden Microsoft TechnNet-Link: https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces
/storage-spaces-direct-windows-server-2016
Konfigurieren der Hardware
Abbildung 13-18 zeigt ein Beispiel für die Hardware-Konfiguration.
Abbildung 13-18. Beispiel für die Hardware-Konfiguration
ANMERKUNG
Bei den in diesem Beispiel verwendeten Festplatten handelt es sich um
4 × 400G NVMe ™ - und 12 × 200G SSD-Festplatten.
252 AH0054602-01 F
13–Windows Server 2016
Konfigurieren der Funktion „Direkte Speicherplätze“
Implementieren eines Hyper-Konvergenzsystems
In diesem Abschnitt finden Sie Anweisungen für die Installation und Konfiguration der Komponenten eines Hyper-Konvergenzsystems über Windows Server 2016.
Die eigentliche Bereitstellung eines Hyper-Konvergenzsystems kann in die folgenden drei übergeordneten Phasen unterteilt werden:
Implementieren des Betriebssystems
Konfigurieren der Funktion „Direkte Speicherplätze“
Implementieren des Betriebssystems
So stellen Sie Betriebssysteme bereit:
1.
Installieren Sie das Betriebssystem.
2.
Installieren Sie die Windows-Serverrollen (Hyper-V).
3.
Installieren Sie die folgenden Funktionen:
Failover
Cluster (Datengruppe)
Data Center Bridging (DCB):
4.
Verbinden Sie die Knoten mit der Domäne und fügen Sie
Domänenkonten hinzu.
Konfigurieren des Netzwerks
Um die Funktion „Direkte Speicherplätze“ bereitzustellen, muss der Hyper-V-Switch mit RDMA-aktivierten virtuellen Host-NICs bereitgestellt werden.
ANMERKUNG
Beim folgenden Verfahren wird angekommen, dass es vier
RDMA-NIC-Ports gibt.
So konfigurieren Sie das Netzwerk auf den einzelnen Servern:
1.
Konfigurieren Sie den physischen Netzwerk-Switch wie folgt: a.
Schließen Sie alle Adapter-NICs an den Switch-Port an.
ANMERKUNG
Wenn Ihr Testadapter mehr als einen NIC-Port aufweist, müssen
Sie beide Ports an denselben Switch anschließen.
253 AH0054602-01 F
13–Windows Server 2016
Konfigurieren der Funktion „Direkte Speicherplätze“ b.
Aktivieren Sie den Switch-Port und stellen Sie sicher, dass der
Switch-Port den Switch-unabhängigen Teaming-Modus unterstützt und
Teil mehrerer VLAN-Netzwerk ist.
Beispiel für eine Dell Switch-Konfiguration: no ip address mtu 9416 portmode hybrid switchport dcb-map roce_S2D protocol lldp dcbx version cee no shutdown
2.
Aktivieren Sie
Network Quality of Service
(Servicequalität des Netzwerks).
ANMERKUNG
Die Funktion „Network Quality of Service“ (Servicequalität des
Netzwerks) wird verwendet, um sicherzustellen, dass das Software
Defined Storage-System über ausreichend Bandbreite verfügt, um zwischen den Knoten zu kommunizieren und damit Resilienz und
Leistung sicherzustellen. Wenn Sie die Servicequalität (QoS) auf dem
Adapter konfigurieren möchten, finden Sie weitere Informationen unter
„Konfigurieren von QoS für RoCE“ auf Seite 235 .
3.
Erstellen Sie wie folgt einen virtuellen Hyper-V-Switch mit virtuellen SET- und RDMA-NICs: a.
Um Netzwerkadapter zu identifizieren, führen Sie den folgenden
Befehl aus:
Get-NetAdapter | FT
Name,InterfaceDescription,Status,LinkSpeed
b.
Um den virtuellen Switch zu erstellen, der mit allen physischen
Netzwerkadaptern verknüpft ist, und dann die in den Switch eingebettete Teaming-Funktion zu aktivieren, führen Sie den folgenden Befehl aus:
New-VMSwitch -Name SETswitch -NetAdapterName "<Port
1>","<Port 2>","<Port 3>","<Port 4>" –
EnableEmbeddedTeaming $true
c.
Um virtuelle Host-NICs zum virtuellen Switch hinzuzufügen, führen Sie die folgenden Befehle aus:
254 AH0054602-01 F
13–Windows Server 2016
Konfigurieren der Funktion „Direkte Speicherplätze“
Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_1 – managementOS
Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_2 – managementOS
ANMERKUNG
Die vorherigen Befehle konfigurieren die virtuelle NIC aus dem virtuellen Switch, den Sie soeben für das zu verwendende
Verwaltungsbetriebssystem konfiguriert haben.
d.
Um die virtuelle Host-NIC für die Verwendung eines VLAN zu konfiguieren, führen Sie die folgenden Befehle aus:
Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_1"
-VlanId 5 -Access -ManagementOS
Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_2"
-VlanId 5 -Access -ManagementOS
ANMERKUNG
Die folgenden Befehle können auf demselben oder abweichenden VLANs vorhanden sein.
e.
Um sicherzustellen, dass die VLAN-ID festgelegt wurde, führen Sie den folgenden Befehl aus:
Get-VMNetworkAdapterVlan -ManagementOS
f.
Um die einzelnen virtuellen Host-NIC-Adapter zu deaktivieren und zu aktivieren, sodass das VLAN aktiv ist, führen Sie den folgenden
Befehl aus:
Disable-NetAdapter "vEthernet (SMB_1)"
Enable-NetAdapter "vEthernet (SMB_1)"
Disable-NetAdapter "vEthernet (SMB_2)"
Enable-NetAdapter "vEthernet (SMB_2)"
g.
Um RDMA auf den virtuellen Host-NIC-Adaptern zu aktivieren, führen
Sie den folgenden Befehl aus:
Enable-NetAdapterRdma "SMB1","SMB2"
h.
Um die RDMA-Funktionen sicherzustellen, führen Sie den folgenden
Befehl aus:
Get-SmbClientNetworkInterface | where RdmaCapable -EQ
$true
255 AH0054602-01 F
13–Windows Server 2016
Konfigurieren der Funktion „Direkte Speicherplätze“
Konfigurieren der Funktion „Direkte Speicherplätze“
Die Konfiguration der Funktion „Direkte Speicherplätze“ in Windows Server 2016 umfasst die folgenden Schritte:
Schritt 1. Ausführen eines Clustervalidierungswerkzeugs
Schritt 2. Erstellen eines Clusters
Schritt 3. Konfigurieren eines Clusterzeugen
Schritt 4. Säubern der für die Funktion „Direkte Speicherplätze“ verwendeten Festplatten
Schritt 5. Aktivieren der Funktion „Direkte Speicherplätze“
Schritt 6. Erstellen von virtuellen Festplatten
Schritt 7. Erstellen oder Bereitstellen von virtuellen Maschinen
Schritt 1. Ausführen eines Clustervalidierungswerkzeugs
Führen Sie das Clustervalisierungswerkzeug aus, um sicherzustellen, dass die
Serverknoten korrekt konfiguriert wurden, um auf Basis der Funktion „Direkte
Speicherplätze“ ein Cluster zu erstellen.
Führen Sie den folgenden Windows PowerShell-Befehl aus, um mehrere Server zur Verwendung als Cluster für direkte Speicherplätze zu validieren:
Test-Cluster -Node <MachineName1, MachineName2, MachineName3,
MachineName4> -Include "Storage Spaces Direct", Inventory,
Network, "System Configuration"
Schritt 2. Erstellen eines Clusters
Erstellen Sie ein Cluster mit den vier Knoten (die für die Cluster-Erstellung validiert wurden) in
Schritt 1. Ausführen eines Clustervalidierungswerkzeugs .
Führen Sie zum Erstellen eines Clusters den folgenden Windows
PowerShell-Befehl aus:
New-Cluster -Name <ClusterName> -Node <MachineName1, MachineName2,
MachineName3, MachineName4> -NoStorage
Der Parameter
–NoStorage
wird benötigt. Sollte er nicht enthalten sein, werden die Festplatten automatisch zum Cluster hinzugefügt und Sie müssen sie durch das Aktivieren der Funktion „Direkte Speicherplätze“ entfernen. Ansonsten werden sie nicht in das Speicherpool der Funktion „Direkte Speicherplätze“ eingeschlossen.
Schritt 3. Konfigurieren eines Clusterzeugen
Es wird empfohlen, einen Zeugen für das Cluster zu konfigurieren, sodass dieses
System mit vier Knoten weiterhin funktioniert, wenn zwei Konten ausfallen oder offline sind. Mit diesen Systemen können Sie den Dateifreigabe-Zeugen oder den
Cloud-Zeugen konfigurieren.
256 AH0054602-01 F
13–Windows Server 2016
Konfigurieren der Funktion „Direkte Speicherplätze“
Weitere Informationen finden Sie unter: https://blogs.msdn.microsoft.com/clustering/2014/03/31/configuring-a-file-sharewitness-on-a-scale-out-file-server/
Schritt 4. Säubern der für die Funktion „Direkte Speicherplätze“ verwendeten Festplatten
Die Festplatten, die für die Funktion „Direkte Speicherplätze“ verwendet werden sollen, müssen leer sein und dürfen keine Partitionen oder andere Daten aufweisen. Wenn eine Festplatte Partitionen oder andere Daten enthält, wird sie nicht im System mit den direkten Speicherplätzen berücksichtigt.
Der folgende Windows PowerShell-Befehl kann in eine Windows
PowerShell-Script-Datei (
.PS1
) gesetzt und über das Verwaltungssystem in einer offenen Windows PowerShell (oder Windows PowerShell-ISE)-Konsole mit
Administratorberechtigungen ausgeführt werden.
ANMERKUNG
Das Ausführen dieses Scripts hilft bei der Unterstützung der Festplatten auf den einzelnen Knoten, die für die Funktion „Direkte Speicherplätze“ verwendet werden können, und entfernt alle Daten und Partition von diesen Festplatten.
icm (Get-Cluster -Name HCNanoUSClu3 | Get-ClusterNode)
{
Update-StorageProviderCache
Get-StoragePool |? IsPrimordial -eq $false | Set-StoragePool
-IsReadOnly:$false -ErrorAction SilentlyContinue
Get-StoragePool |? IsPrimordial -eq $false | Get-VirtualDisk |
Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue
Get-StoragePool |? IsPrimordial -eq $false | Remove-StoragePool
-Confirm:$false -ErrorAction SilentlyContinue
Get-PhysicalDisk | Reset-PhysicalDisk -ErrorAction
SilentlyContinue
Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne
$true |? PartitionStyle -ne RAW |% {
$_ | Set-Disk -isoffline:$false
$_ | Set-Disk -isreadonly:$false
$_ | Clear-Disk -RemoveData -RemoveOEM -Confirm:$false
$_ | Set-Disk -isreadonly:$true
$_ | Set-Disk -isoffline:$true
}
257 AH0054602-01 F
13–Windows Server 2016
Konfigurieren der Funktion „Direkte Speicherplätze“
Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne
$true |? PartitionStyle -eq RAW | Group -NoElement -Property
FriendlyName
} | Sort -Property PsComputerName,Count
Schritt 5. Aktivieren der Funktion „Direkte Speicherplätze“
Führen Sie nach der Erstellung des Clusters das cmdlet
Enable-ClusterStorageSpacesDirect
Windows PowerShell aus. Das cmdlet versetzt das Speichersystem in den Modus „Direkte Speicherplätze“ und führt die folgenden Schritte automatisch aus:
Erstellt ein einzelnes großes Pool mit einem Namen wie
S2D auf Cluster 1
.
Konfiguriert den Cache für die Funktion „Direkte Speicherplätze“. Wenn mehr als ein Datenträgertyp für die Verwendung der Funktion „Direkte
Speicherplätze“ vorhanden ist, konfiguriert es den effizientesten Typ als
Cache-Geräte (in den meisten Fällen Schreiben und Lesen).
Erstellt zweit Stufen –
Capacity
(Kapazität) und
Performance
(Leistung) – als Standardstufen. Das cmdlet analysiert die Geräte und konfiguriert jede
Stufe mit dem Mix aus Gerätetypen und Resilienz.
Schritt 6. Erstellen von virtuellen Festplatten
Wenn die Funktion „Direkte Speicherplätze“ aktiviert wurde, erstellt sie ein einzelnes Pool mit allen Festplatten. Außerdem wird das Pool (z. B.
S2D auf
Cluster 1
) mit dem Namen des Clusters benannt, der im Namen angegeben ist.
Der folgende Windows PowerShell-Befehl erstellt eine virtuelle Festplatte mit
Spiegelungs- und Paritätsresilienz im Speicher-Pool:
New-Volume -StoragePoolFriendlyName "S2D*" -FriendlyName
<VirtualDiskName> -FileSystem CSVFS_ReFS -StorageTierfriendlyNames
Capacity,Performance -StorageTierSizes <Size of capacity tier in size units, example: 800GB>, <Size of Performance tier in size units, example: 80GB> -CimSession <ClusterName>
Schritt 7. Erstellen oder Bereitstellen von virtuellen Maschinen
Sie können die virtuellen Maschinen auf den Knoten des
Hyper-Konvergenz-S2D-Clusters bereitstellen. Speichern Sie die Dateien der virtuellen Maschine in den CSV-Namespace des Systems (Beispiel: c:\ClusterStorage\Volume1
). Dieser Vorgang ähnelt geclusterten virtuellen
Maschinen auf Failover-Clustern.
258 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
Implementieren und Verwalten eines
Nano-Servers
Windows Server 2016 bietet den Nano-Server als neue Installationsoption an.
Nano-Server ist ein remote verwaltetes Server-Betriebssystem, das für private
Clouds und Rechenzentren optimiert wurde. Es ähnelt Windows Server im Server
Core-Modus, es ist jedoch deutlich kleiner, verfügt nicht über eine lokale
Anmeldefunktion und unterstützt nur 64-Bit-Anwendungen, -Werkzeuge und
-Agenten. Der Nano-Server verbraucht weniger Festplattenspeicherplatz, er kann schneller eingerichtet werden und erfordert weniger Aktualisierungen und Neustarts als Windows Server. Bei erforderlichen Neustarts erfolgen diese deutlich schneller.
Rollen sowie Merkmale und Funktionen
Tabelle 13-1 zeigt die Rollen sowie die Merkmale und Funktionen, die in dieser
Version von Nano-Server verfügbar sind. Außerdem werden die Windows
PowerShell-Optionen angezeigt, mit denen die Pakete für diese Rollen bzw.
Merkmale und Funktionen installiert werden. Einige Pakete werden direkt mit ihren eigenen Windows PowerShell-Optionen installiert (z. B.
-Compute
). Andere werden als Erweiterungen in die Option
-Packages
installiert, die Sie über eine kommagetrennte Liste kombinieren können.
Tabelle 13-1. Rollen sowie Merkmale und Funktionen bei Nano-Servern
Rollen oder Merkmale und Funktionen Optionen
Hyper-V-Rolle
Failover-Cluster
Hyper-V-Gasttreiber für das Hosten von
Nano-Servern als virtuelle Maschine
Basistreiber für eine große Bandbreite von
Netzwerkadaptern und Speichercontrollern. Hierbei handelt es sich um den gleichen Satz mit Treibern, die in einer Server Core-Installation von Windows
Server 2016 Technical Preview enthalten sind.
-Compute
-Clustering
-GuestDrivers
-OEMDrivers
Dateiserver-Rolle und andere
Speicherkomponenten
Windows Defender Antimalware, einschließlich einer Standardsignaturdatei
Umkehrweiterleitung zur Anwendungskompatibilität.
Beispiel: allgemeine Anwendungsframeworks, wie z. B. Ruby, Node.js und andere
-Storage
-Defender
-ReverseForwarders
259 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
Tabelle 13-1. Rollen sowie Merkmale und Funktionen bei Nano-Servern (fortgesetzt)
Rollen oder Merkmale und Funktionen Optionen
DNS-Serverrolle
-Packages
Microsoft-NanoServer-DNSPackage
(-Packages Microsoft-NanoServer-DNS-
SNIA-API-Bibliothekspaket)
Desired State Configuration (DSC)
-Packages
Microsoft-NanoServer-DSCPackage
(-Packages Microsoft-NanoServer-DSC-
SNIA-API-Bibliothekspaket)
Internet Information Server (IIS)
Host-Support für Windows-Container
-Containers
Agent für den Manager der virtuelle Maschine im
Systemcenter
-Packages Microsoft-Windows-Server-
SCVMM-Package
-Packages Microsoft-Windows-Server-
SCVMM-Compute-Package
Anmerkung: Verwenden Sie dieses Paket nur, wenn Sie Hyper-V überwachen. Wenn Sie dieses
Paket installieren, verwenden Sie nicht die Option
-Compute
für die Hyper-V-Rolle. Verwenden Sie stattdessen die Option
-Packages
, um Folgendes zu installieren:
-Packages
Microsoft-NanoServer-Compute-Package
,
Microsoft-Windows-Server-SCVMM-
Compute-Package
.
Network Performance Diagnostics Service (NPDS)
-Packages
Microsoft-NanoServer-NPDSPackage
(-Packages Microsoft-NanoServer-DSC-
SNIA-API-Bibliothekspaket)
Data Center Bridging
-Packages
Microsoft-NanoServer-IISPackage
(-Packages Microsoft-NanoServer-DSC-
SNIA-API-Bibliothekspaket)
-Packages
Microsoft-NanoServer-DCBPackage
(-Packages Microsoft-NanoServer-DSC-
SNIA-API-Bibliothekspaket)
260 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
In den nächsten Abschnitten wird beschrieben, wie das Nano-Server-Image mit den erforderlichen Paketen konfiguriert wird und wie zusätzliche, für QLogic-Geräte spezifische Gerätetreiber hinzugefügt werden. Außerdem wird erläutert, wie die
Nano-Server-Wiederherstellungskonsole verwendet, ein Nano-Server per remote verwaltet und der Ntttcp-Datenverkehr über einen Nano-Server ausgeführt wird.
Implementieren eines Nano-Servers auf einem physischen Server
Führen Sie die folgenden Schritte aus, um ein virtuelles
Nano-Server-Festplattenlaufwerk zu erstellen, das mithilfe der vorinstallierten
Gerätetreiber auf einem phyischen Server ausgeführt wird.
So stellen Sie einen Nano-Server bereit:
1.
Laden Sie das Windows Server 2016-BS-Image herunter.
2.
Mounten Sie das ISO.
3.
Kopieren Sie die folgenden Dateien aus dem Ordner
NanoServer
in einen
Ordner auf Ihrer Festplatte:
NanoServerImageGenerator.psm1
Convert-WindowsImage.ps1
4.
Starten Sie Windows PowerShell als Administrator.
5.
Ändern Sie das Verzeichnis in einen Ordner, in den Sie die Dateien aus
6.
Importieren Sie das NanoServerImageGenerator-Script, indem Sie den folgenden Befehl ausführen:
Import-Module .\NanoServerImageGenerator.psm1 -Verbose
7.
Um ein virtuelles Festplattenlaufwerk zu erstellen, das einen Computernamen festlegt und die OEM-Treiber und Hyper-V enthält, führen Sie den folgenden
Windows PowerShell-Befehl aus:
ANMERKUNG
Dieser Befehl fordert Sie dazu auf, ein Administrator-Passwort für das neue virtuelle Festplattenlaufwerke einzugeben.
New-NanoServerImage –DeploymentType Host –Edition
<Standard/Datacenter> -MediaPath <path to root of media>
-BasePath
.\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd
-ComputerName
<computer name> –Compute -Storage -Cluster -OEMDrivers
–Compute
261 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
-DriversPath "<Path to Qlogic Driver sets>"
Beispiel:
New-NanoServerImage –DeploymentType Host –Edition Datacenter
-MediaPath C:\tmp\TP4_iso\Bld_10586_iso
-BasePath ".\Base" -TargetPath
"C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName
"Nano-server1" –Compute -Storage -Cluster -OEMDrivers
-DriversPath
"C:\Nano\Drivers"
In den vorherigen Beispielen steht
C:\Nano\Drivers
für den Pfad der
QLogic-Treiber. Die Erstellung einer Datei für ein virtuelles Festplattenlaufwerk
über diesen Befehl dauert etwa 10 bis 15 Minuten. Im Folgenden wird eine
Beispielausgabe für diesen Befehl angezeigt:
Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10
Copyright (C) Microsoft Corporation. All right reserved.
Version 10.0.14300.1000.amd64fre.rs1_release_svc.160324-1723
INFO : Looking for the requested Windows image in the WIM file
INFO : Image 1 selected (ServerDatacenterNano)...
INFO : Creating sparse disk...
INFO : Mounting VHD...
INFO : Initializing disk...
INFO : Creating single partition...
INFO : Formatting windows volume...
INFO : Windows path (I:) has been assigned.
INFO : System volume location: I:
INFO : Applying image to VHD. This could take a while...
INFO : Image was applied successfully.
INFO : Making image bootable...
INFO : Fixing the Device ID in the BCD store on VHD...
INFO : Drive is bootable. Cleaning up...
INFO : Dismounting VHD...
INFO : Closing Windows image...
INFO : Done.
Done. The log is at:
C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log
8.
Melden Sie sich als Administrator auf dem physischen Server auf, auf dem das virtuelle Nano-Server-Festplattenlaufwerk ausgeführt werden soll.
262 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
9.
So kopieren Sie das virtuelle Festplattenlaufwerk auf den physischen Server und konfigurieren es zum Starten über das neue virtuelle Festplattenlaufwerk: a.
Gehen Sie zu
Computer Management > Storage > Disk Management
(Computerverwaltung > Speicher > Festplattenverwaltung).
b.
Klicken Sie mit der rechten Maustaste auf
Disk Management
(Festplattenverwaltung) und wählen Sie
Attach VHD
(Virtuelles
Festplattenlaufwerk anhängen) aus.
c.
Stellen Sie den VHD-Dateipfad bereit.
d.
Klicken Sie auf
OK
.
e.
Führen Sie
bcdboot d:\windows
aus.
ANMERKUNG
In diesem Beispiel wird das VHD unter
D:\
angehängt.
f.
Klicken Sie mit der rechten Maustaste auf
Disk Management
(Festplattenverwaltung) und wählen Sie
Dettach VHD
(Virtuelles
Festplattenlaufwerk lösen) aus.
10. Starten Sie den physischen Server in das Nano-Server-VHD neu.
11.
Melden Sie sich anhand des Administrator-Passworts, das Sie beim
Ausführen des Scripts in Schritt 7 bereitgestellt haben, an der
Wiederherstellungskonsole an.
12. Rufen Sie die IP-Adresse des Nano-Server-Computers ab.
13. Verwenden Sie das Remote-Windows PowerShell-Tool (oder ein anderes
Remote-Verwaltungstool), um den Server zu verbinden und per remote zu verwalten.
Implementieren eines Nano-Servers in einer virtuellen
Maschine
So erstellen Sie ein virtuelles Nano-Server-Festplattenlaufwerk zum
Ausführen in einer virtuellen Maschine:
1.
Laden Sie das Windows Server 2016-BS-Image herunter.
2.
Gehen Sie über die in Schritt 1 heruntergeladene Datei in den Ordner
NanoServer
.
3.
Kopieren Sie die folgenden Dateien aus dem Ordner
NanoServer
in einen
Ordner auf Ihrer Festplatte:
NanoServerImageGenerator.psm1
Convert-WindowsImage.ps1
263 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
4.
Starten Sie Windows PowerShell als Administrator.
5.
Ändern Sie das Verzeichnis in einen Ordner, in den Sie die Dateien aus
6.
Importieren Sie das NanoServerImageGenerator-Script, indem Sie den folgenden Befehl ausführen:
Import-Module .\NanoServerImageGenerator.psm1 -Verbose
7.
Führen Sie den folgenden Windows PowerShell-Befehl aus, um ein virtuelles Festplattenlaufwerk zu erstellen, das einen Computernamen festlegt und die Hyper-V-Gasttreiber beinhaltet:
ANMERKUNG
Der folgende Befehl fordert Sie dazu auf, ein Administrator-Passwort für das neue virtuelle Festplattenlaufwerk einzugeben.
New-NanoServerImage –DeploymentType Guest –Edition
<Standard/Datacenter> -MediaPath <path to root of media>
-BasePath
.\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd
-ComputerName
<computer name> –GuestDrivers
Beispiel:
New-NanoServerImage –DeploymentType Guest –Edition Datacenter
-MediaPath C:\tmp\TP4_iso\Bld_10586_iso
-BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd
-ComputerName
Nano-VM1 –GuestDrivers
Die Erstellung einer Datei für ein virtuelles Festplattenlaufwerk über den vorherigen Befehl dauert etwa 10 bis 15 Minuten. Im Folgenden wird eine
Beispielausgabe für diesen Befehl angezeigt:
PS C:\Nano>
New-NanoServerImage –DeploymentType Guest –Edition
Datacenter -MediaPath
C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath
.\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers cmdlet New-NanoServerImage at command pipeline position 1
Legen Sie Werte für die folgenden Parameter fest:
Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10
Copyright (C) Microsoft Corporation. All right reserved.
Version 10.0.14300. 1000.amd64fre.rs1_release_svc.160324-1723
INFO : Looking for the requested Windows image in the WIM file
264 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
INFO : Image 1 selected (ServerTuva)...
INFO : Creating sparse disk...
INFO : Attaching VHD...
INFO : Initializing disk...
INFO : Creating single partition...
INFO : Formatting windows volume...
INFO : Windows path (G:) has been assigned.
INFO : System volume location: G:
INFO : Applying image to VHD. This could take a while...
INFO : Image was applied successfully.
INFO : Making image bootable...
INFO : Fixing the Device ID in the BCD store on VHD...
INFO : Drive is bootable. Cleaning up...
INFO : Closing VHD...
INFO : Deleting pre-existing VHD : Base.vhd...
INFO : Closing Windows image...
INFO : Done.
Done. The log is at:
C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log
8.
Erstellen Sie eine neue virtuelle Maschine in Hyper-V Manager und verwenden Sie das in
erstellte virtuelle Festplattenlaufwerk.
9.
Starten Sie die virtuelle Maschine.
10. Erstellen Sie eine Verbindung zur virtuellen Maschine im Hyper-V-Manager.
11.
Melden Sie sich anhand des Administrator-Passworts, das Sie beim
Ausführen des Scripts in Schritt 7 bereitgestellt haben, an der
Wiederherstellungskonsole an.
12. Rufen Sie die IP-Adresse des Nano-Server-Computers ab.
13. Verwenden Sie das Remote-Windows PowerShell-Tool (oder ein anderes
Remote-Verwaltungstool), um den Server zu verbinden und per remote zu verwalten.
Verwalten eines Nano-Servers über eine Remote-Verbindung
Die folgenden Optionen für die Remote-Verwaltung des Nano-Servers sind verfügbar: Windows PowerShell, Windows-Verwaltungsinstrumentation (WMI),
Windows-Remoteverwaltung und Notverwaltungsdienste (EMS). Der folgende
Abschnitt beschreibt den Remote-Zugriff auf den Nano-Server über eine
Remote-Verwaltung mit Windows PowerShell.
265 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
Verwalten eines Nano-Servers über die Windows PowerShell-Remote-Verwaltung
So verwalten Sie einen Nano-Server über die Windows
PowerShell-Remote-Verwaltung:
1.
Fügen Sie die IP-Adresse des Nano-Servers zur Liste der vertrauenswürdigen
Hosts Ihres Verwaltungscomputers hinzu.
ANMERKUNG
Verwenden Sie die Wiederherstellungskonsole, um die
Server-IP-Adresse zu ermitteln.
2.
Fügen Sie das verwendete Konto zu den Administratoren des Nano-Servers hinzu.
3.
(Optional) Aktivieren Sie
CredSSP
, falls erforderlich.
Hinzufügen des Nano-Servers zu einer Liste der vertrauenswürdigen Hosts
Fügen Sie in einer hervorgehobenen Windows PowerShell-Aufforderung den
Nano-Server zur Liste der vertrauenswürdigen Hosts hinzu, indem Sie den folgenden Befehl ausführen:
Set-Item WSMan:\localhost\Client\TrustedHosts "<IP address of Nano
Server>"
Beispiele:
Set-Item WSMan:\localhost\Client\TrustedHosts "172.28.41.152"
Set-Item WSMan:\localhost\Client\TrustedHosts "*"
ANMERKUNG
Mit dem vorherigen Befehl werden alle Host-Server als vertrauenswürdige
Hosts definiert.
Starten der Remote-Windows PowerShell-Sitzung
Starten Sie über eine hervorgehobene lokale Windows PowerShell-Sitzung die
Remote-Windows PowerShell-Sitzung, indem Sie die folgenden Befehle ausführen:
$
ip = "<IP address of Nano Server>"
$
user = "$ip\Administrator"
Enter-PSSession -ComputerName $ip -Credential $user
266 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
Sie können nun wie gewohnt Windows PowerShell-Befehle auf dem Nano-Server ausführen. Nicht alle Windows PowerShell-Befehle sind jedoch in dieser Version des Nano-Servers verfügbar. Um zu ermitteln, welche Befehle verfügbar sind, führen Sie den Befehl
Get-Command -CommandType Cmdlet
aus. Um die
Remote-Sitzung zu beenden, führen Sie den Befehl
Exit-PSSession
aus.
Weitere Details zum Nano-Server finden Sie hier: https://technet.microsoft.com/en-us/library/mt126167.aspx
Verwalten von QLogic-Adaptern auf einem
Windows-Nano-Server
Weitere Informationen zur Verwaltung von QLogic-Adaptern in
Nano-Server-Umgebungen finden Sie in der Windows
QConvergeConsole-Benutzeroberfläche und den Verwaltungswerkzeugen für die
Windows QLogic Control Suite-Befehlszeilenschnittstelle sowie der verbundenen
Dokumentation, die Sie auf der Cavium-Website herunterladen können:
RoCE-Konfiguration
So verwalten Sie einen Nano-Server über die Windows
PowerShell-Remote-Verwaltung:
1.
Stellen Sie über eine Windows PowerShell-Remote-Verwaltung von einer anderen Maschine eine Verbindung zum Nano-Server her. Zum Beispiel:
PS C:\Windows\system32>
$1p="172.28.41.152"
PS C:\Windows\system32>
$user="172.28.41.152\Administrator"
PS C:\Windows\system32>
Enter-PSSession -ComputerName $ip
-Credential $user
ANMERKUNG
Im vorherigen Beispiel lautet die Nano-Server-IP-Adresse
172.28.41.152
und der Benutername ist
Administrator
.
Wenn der Nano-Server erfolgreich verbunden wurde, wird Folgendes ausgegeben:
[172.28.41.152]: PS C:\Users\Administrator\Documents>
2.
Um zu bestimmen, ob die Treiber installiert wurden und die Verbindung verfügbar ist, führen Sie den folgenden Windows PowerShell-Befehl aus:
[172.28.41.152]: PS C:\Users\Administrator\Documents>
Get-NetAdapter
267 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
zeigt ein Beispiel für die Ausgabe.
Abbildung 13-19. Windows PowerShell-Befehl: Get-NetAdapter
3.
Führen Sie zum Überprüfen, ob RDMA auf dem Adapter aktiviert ist, den folgenden Windows PowerShell-Befehl aus:
[172.28.41.152]: PS C:\Users\Administrator\Documents>
Get-NetAdapterRdma
zeigt ein Beispiel für die Ausgabe.
Abbildung 13-20. Windows PowerShell-Befehl: Get-NetAdapterRdma
4.
Um eine IP-Adresse und eine VLAN-ID allen Schnittstellen auf dem Adapter zuzuweisen, führen Sie die folgenden Windows PowerShell-Befehle aus:
[172.28.41.152]: PS C:\>
Set-NetAdapterAdvancedProperty
-InterfaceAlias "slot 1 port 1" -RegistryKeyword vlanid
-RegistryValue 5
[172.28.41.152]: PS C:\>
netsh interface ip set address name="SLOT 1 Port 1" static 192.168.10.10 255.255.255.0
5.
Um eine SMB-Freigabe auf dem Nano-Server zu erstellen, führen Sie den folgenden Windows PowerShell-Befehl aus:
[172.28.41.152]: PS C:\Users\Administrator\Documents>
New-Item -Path c:\ -Type Directory -Name smbshare -Verbose
zeigt ein Beispiel für die Ausgabe.
Abbildung 13-21. Windows PowerShell-Befehl: New-Item
268 AH0054602-01 F
13–Windows Server 2016
Implementieren und Verwalten eines Nano-Servers
[172.28.41.152]: PS C:\>
New-SMBShare -Name "smbshare" -Path c:\smbshare -FullAccess Everyone
zeigt ein Beispiel für die Ausgabe.
Abbildung 13-22. Windows PowerShell-Befehl: New-SMBShare
6.
Um die SMB-Freigabe als Netzwerklaufwerk der Client-Maschine zuzuordnen, führen Sie den folgenden Windows PowerShell-Befehl aus:
ANMERKUNG
Die IP-Adresse einer Schnittstelle auf dem Nano-Server lautet
192.168.10.10.
PS C:\Windows\system32>
net use z: \\192.168.10.10\smbshare
This command completed successfully.
7.
Um Lese-/Schreibvorgänge auf der SMB-Freigabe durchzuführen und die
RDMA-Statistik auf dem Nano-Server zu prüfen, führen Sie den folgenden
Windows PowerShell-Befehl aus:
[172.28.41.152]: PS C:\>
(Get-NetAdapterStatistics).RdmaStatistics
zeigt die Befehlsausgabe.
Abbildung 13-23. Windows PowerShell-Befehl: Get-NetAdapterStatistics
269 AH0054602-01 F
14
Fehlerbehebung
In diesem Abschnitt finden Sie die folgenden Informationen zur Fehlerbehebung:
„Überprüfen der geladenen Treiber“ auf Seite 271
„Testen der Netzwerkanbindung“ auf Seite 272
„Microsoft Virtualization mit Hyper-V“ auf Seite 274
„Linux-spezifische Probleme“ auf Seite 274
„Sonstige Probleme“ auf Seite 274
„Erfassen von Fehlerbehebungsdaten“ auf Seite 274
Fehlerbehebung – Checkliste
VORSICHT!
Lesen Sie den Abschnitt
„Sicherheitsvorkehrungen“ auf Seite 5
, bevor Sie das Servergehäuse zum Hinzufügen oder Entfernen des Adapters öffnen.
In der folgenden Checkliste werden Maßnahmen zur Behebung von Problemen empfohlen, die bei der Installation des Adapter der 41
xxx
-Serie beziehungsweise bei dessen Ausführung im System auftreten können.
Überprüfen Sie alle Kabel und Anschlüsse. Überprüfen Sie, ob alle Kabel ordnungsgemäß am Netzwerkadapter und am Switch angeschlossen sind.
Überprüfen Sie die Adapterinstallation anhand der Angaben unter
„Installieren des Adapters“ auf Seite 6 . Überprüfen Sie, ob der Adapter fest
im Steckplatz sitzt. Suchen Sie nach spezifischen Hardwareproblemen, beispielsweise nach einer offensichtlichen Beschädigung einer
Platinenkomponente oder des PCI-Stiftsockels.
Überprüfen Sie die Konfigurationseinstellungen und ändern Sie diese, falls sie mit den Einstellungen anderer Geräte in Konflikt stehen.
Überprüfen Sie, ob der Server das neueste BIOS verwendet.
270 AH0054602-01 F
14–Fehlerbehebung
Überprüfen der geladenen Treiber
Versuchen Sie, den Adapter in einem anderen Steckplatz zu installieren.
Wenn die neue Installationsposition funktioniert, ist unter Umständen der ursprüngliche Systemsteckplatz defekt.
Tauschen Sie den nicht funktionierenden Adapter gegen einen Adapter aus, von dem Sie wissen, dass er korrekt funktioniert. Wenn der zweite Adapter in dem Steckplatz funktioniert, in dem der erste Adapter nicht betrieben werden konnte, ist der erste Adapter vermutlich defekt.
Installieren Sie den Adapter in einem anderen funktionierenden System, und führen Sie die Tests erneut durch. Wenn der Adaptertest im neuen System erfolgreich ausgeführt werden kann, ist möglicherweise das ursprüngliche
System defekt.
Entfernen Sie alle anderen Adapter aus dem System, und führen Sie die
Tests anschließend erneut durch. Wenn der Adaptertest erfolgreich verläuft, liegt unter Umständen ein Konflikt mit den anderen Adaptern vor.
Überprüfen der geladenen Treiber
Stellen Sie sicher, dass die aktuellen Treiber für Ihr Windows-, Linux- oder
VMware-System geladen wurden.
Überprüfen von Treibern in Windows
Im Geräte-Manager finden Sie alle wichtigen Informationen zum Adapter, zum
Verbindungsstatus und zur Netzwerkkonnektivität.
Überprüfen von Treibern in Windows
Überprüfen Sie, ob der Treiber qed.ko korrekt geladen ist. Führen Sie dazu den folgenden Befehl aus:
#
lsmod | grep -i <module name>
Wenn der Treiber geladen wurde, zeigt die Ausgabe dieses Befehls die
Treibergröße in Byte an. Das folgende Beispiel zeigt die geladenen Treiber für das qed-Modul:
#
lsmod | grep -i qed
qed 199238 1 qede 1417947 0
Wenn Sie nach dem Laden eines neuen Treibers einen Neustart durchführen, können Sie den folgenden Befehl ausgeben, um zu überprüfen, ob der derzeit geladene Treiber die korrekte Version hat.
modinfo qede
271 AH0054602-01 F
14–Fehlerbehebung
Testen der Netzwerkanbindung
Sie können auch den folgenden Befehl ausgeben:
[root@test1]#
ethtool -i eth2
driver: qede version: 8.4.7.0
firmware-version: mfw 8.4.7.0 storm 8.4.7.0
bus-info: 0000:04:00.2
Wenn Sie einen neuen Treiber geladen, das System aber noch nicht neu gestartet haben, zeigt Ihnen der Befehl modinfo
nicht die aktualisierten Treiberinformationen an. Geben Sie den Befehl dmesg
ein, um die Protokolle anzuzeigen. In diesem
Beispiel wird anhand des letzten Eintrags der Treiber identifiziert, der beim Neustart aktiv sein wird.
#
dmesg | grep -i "Cavium" | grep -i "qede"
[ 10.097526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 23.093526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 34.975396] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 34.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 3334.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
Überprüfen von Treibern in VMware
Um zu überprüfen, ob die VMware ESXi-Treiber geladen wurden, führen Sie den folgenden Befehl aus:
#
esxcli software vib list
Testen der Netzwerkanbindung
Dieser Abschnitt enthält Abläufe zum Testen der Netzwerkkonnektivität in
Windows- und Linux-Umgebungen.
ANMERKUNG
Stellen Sie bei der Verwendung erzwungener Übertragungsraten sicher, dass sowohl für den Adapter als auch für den Switch dieselbe
Übertragungsrate erzwungen wird.
272 AH0054602-01 F
14–Fehlerbehebung
Testen der Netzwerkanbindung
Testen der Netzwerkkonnektivität für Windows
Testen Sie die Netzwerkkonnektivität über den Befehl ping
.
Gehen Sie wie folgt vor, um zu bestimmen, ob die Netzwerkkonnektivität betriebsbereit ist:
1.
Klicken Sie auf
Start
und anschließend
Run
(Ausführen).
2.
Geben Sie in das Feld
Open
(Öffnen)
cmd
ein und klicken Sie dann auf
OK
.
3.
Geben Sie den folgen Befehl aus, um die zu testende Netzwerkverbindung anzuzeigen:
ipconfig /all
4.
Geben Sie den folgenden Befehl aus, und drücken Sie dann die ENTER
(EINGABE).
ping <IP-Adresse>
Die angezeigte Ping-Statistik gibt an, ob eine Netzwerkverbindung besteht.
Testen der Netzwerkkonnektivität für Linux
Gehen Sie wie folgt vor, um zu überprüfen, ob die Ethernet-Schnittstelle betriebsbereit ist:
1.
Führen Sie zum Überprüfen des Status der Ethernet-Schnittstelle den Befehl ifconfig
aus.
2.
Führen Sie zum Überprüfen der Statistik der Ethernet-Schnittstelle den
Befehl netstat -i
aus.
Gehen Sie wie folgt vor, um zu überprüfen, ob die Verbindung aufgebaut wurde:
1.
Führen Sie einen Ping-Befehl für einen IP-Host auf dem Netzwerk durch.
Geben Sie den folgenden Befehl in die Befehlszeile ein:
ping <IP-Adresse>
2.
Drücken Sie ENTER (Eingabe).
Die angezeigte Ping-Statistik gibt an, ob eine Netzwerkverbindung besteht.
Die Verbindungsgeschwindigkeit des Adapters kann unter Verwendung des
GUI-Tools des Betriebssystems oder des ethtool-Befehls ethtool –s ethX speed SSSS
entweder auf 10 GBit/s oder 25 GBit/s erzwungen werden.
273 AH0054602-01 F
14–Fehlerbehebung
Microsoft Virtualization mit Hyper-V
Microsoft Virtualization mit Hyper-V
Microsoft Virtualization ist ein Hypervisor-basiertes Virtualisierungssystem für
Windows Server 2012 R2. Weitere Informationen zu Hyper-V finden Sie unter: https://technet.microsoft.com/en-us/library/Dn282278.aspx
Linux-spezifische Probleme
Problem:
Lösung:
Beim Kompilieren von Treiberquellcode werden Fehlermeldungen ausgegeben.
Bei einigen Installationen von Linux-Distributionen werden die
Entwicklungs-Tools und Kernel-Quellen nicht standardmäßig mit installiert. Sorgen Sie dafür, dass die Entwicklungswerkzeuge für die von Ihnen verwendete Linux-Distribution installiert werden, bevor Sie mit dem Kompilieren des Treiberquellcodes beginnen.
Sonstige Probleme
Problem:
Lösung:
Der Adapter der 41
xxx
-Serie wurde heruntergefahren und es wird eine Fehlermeldung angezeigt, wonach der Lüfter des
Netzwerkadapters ausgefallen ist.
Das Adapter der 41
xxx
-Serie wird eventuell heruntergefahren, um dauerhafte Schäden zu verhindern. Wenden Sie sich an den technischen Support von Cavium, um Unterstützung zu erhalten.
Problem:
Lösung:
In einer ESXi-Umgebung, in der der iSCSI-Treiber (qedil) installiert ist, kann der VI-Client gelegentlich nicht auf den Host zugreifen.
Dieses Problem liegt in der Terminierung des Host-Daemons begründet, der sich auf die Konnektivität mit dem VI-Client auswirkt.
Wenden Sie sich an den technischen Support von VMware.
Erfassen von Fehlerbehebungsdaten
Verwenden Sie die Befehle in
Tabelle 14-1 , um Fehlerbehebungsdaten
zu erfassen.
Tabelle 14-1. Befehle zum Erfassen von Fehlerbehebungsdaten
Fehlerbehebungsdaten
demesg-T ethtool
Kernel-Protokolle
Registerdump
Beschreibung
274 AH0054602-01 F
14–Fehlerbehebung
Erfassen von Fehlerbehebungsdaten
Tabelle 14-1. Befehle zum Erfassen von Fehlerbehebungsdaten (fortgesetzt)
Fehlerbehebungsdaten
sys_info.sh
Beschreibung
Systeminformationen; werden im Treiberbündel bereitgestellt
275 AH0054602-01 F
A
Adapter-LEDS
führt die LED-Anzeigen für den Verbindungs- und Aktivitätsstatus des
Adapter-Ports auf.
Tabelle A-1. Adapter-Port – Verbindungs- und Aktivitäts-LED
Port-LED
Link-LED
Aktivitäts-LED
LED-Anzeige
Aus
Leuchtet konstant
Aus
Blinkend
Netzwerkstatus
Keine Verbindung (Kabel abgetrennt)
Verbindung
Keine Port-Aktivität
Port-Aktivität
276 AH0054602-01 F
B
Kabel und optische Module
In diesem Anhang finden Sie die folgenden Informationen zu den unterstützten
Kabeln und optischen Modulen:
„Getestete Kabel und optische Module“ auf Seite 279
„Getestete Switches“ auf Seite 283
Unterstützte Spezifikationen
Adapter der 41
xxx
-Serie unterstützt eine Vielzahl von Kabeln und optischen
Modulen, die mit SFF8024 kompatibel sind. Die spezifische
Formfaktor-Kompatibilität lautet wie folgt:
SFPs:
SFF8472 (für die Speicherzuordnung)
SFF8419 oder SFF8431 (Signale für geringe Geschwindigkeit und
Stromversorgung)
Quad Small Form Factor Pluggable (QSFP, kleiner anschließbarer
Quad-Formfaktor):
SFF8636 (für die Speicherzuordnung)
SFF8679 oder SFF8436 (Signale für geringe Geschwindigkeit und
Stromversorgung)
Elektrischer Eingang/Ausgang für optische Module, aktive Kupferkabel
(ACC) und aktive optische Kabel (AOC):
10G: begrenzende SFF8431-Schnittstelle
25G: IEEE802.3 in Anhang 109B (25GAUI)
277 AH0054602-01 F
B–Kabel und optische Module
Unterstützte Spezifikationen
278 AH0054602-01 F
B–Kabel und optische Module
Getestete Kabel und optische Module
Getestete Kabel und optische Module
QLogic übernimmt keine Garantie dafür, dass jedes Kabel oder optische Modul, das den Konformitätsanforderungen entspricht, mit den Adapter der 41
xxx
-Serie verwendet werden kann. Cavium hat die unter
aufgeführten
Komponenten getestet und stellt Ihnen diese Liste zur Verfügung.
Tabelle B-1. Getestete Kabel und optische Module
Geschwindigkeit/
Formfaktor
Hersteller
Teilenummer Typ
Kabellänge
a
Breite
10G DAC
b
25G DAC
Brocade
Cisco
Dell
®
Amphenol
®
Dell
1539W
V239T
48V40
H606N
K591N
G849N
V250M
53HVN
358VV
407-BBBK
407-BBBI
407-BBBP
NDCCGF0001
NDCCGF0003
NDCCGJ0003
NDCCGJ0005
2JVDD
D0R73
OVXFJY
9X8JP
Kabel
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP+10G-an-SFP+10G
SFP28-25G-an-SFP28-25G
SFP28-25G-an-SFP28-25G
SFP28-25G-an-SFP28-25G
SFP28-25G-an-SFP28-25G
SFP28-25G-an-SFP28-25G
SFP28-25G-an-SFP28-25G
SFP28-25G-an-SFP28-25G
SFP28-25G-an-SFP28-25G
3
5
1
5
1
3
2
3
5
1
3
3
5
5
1
1
3
5
1
3
26
26
26
26
30
30
26
26
26
26
26
26
26
26
26
26
26
26
30
26
279 AH0054602-01 F
B–Kabel und optische Module
Getestete Kabel und optische Module
Tabelle B-1. Getestete Kabel und optische Module (fortgesetzt)
Geschwindigkeit/
Formfaktor
Hersteller
Teilenummer Typ
Kabellänge
a
40G Kupfer
QSFP
Splitter
(4 × 10G)
1G Kupfer
RJ45
Transceiver
Dell
Dell
TCPM2
27GG5
P8T4W
8T47V
XK1M7
XTY28
QSFP+40G-an-4xSFP+10G
QSFP+40G-an-4xSFP+10G
QSFP+40G-an-4xSFP+10G
SFP+ auf 1G RJ
SFP+ auf 1G RJ
SFP+ auf 1G RJ
1
3
5
1G RJ45
RJ45
1G RJ45
1G Kupfer
RJ45
Transceiver
Dell PGYJT SFP+ auf 10G RJ 10G RJ45
40G DAC-
Splitter
(4 × 10G)
100G
DAC-Splitter
(4 × 25G)
Dell
Amphenol
Dell
FCI
470-AAVO
470-AAXG
470-AAXH
NDAQGJ-0001
QSFP+40G-an-4xSFP+10G
QSFP+40G-an-4xSFP+10G
QSFP+40G-an-4xSFP+10G
QSFP28-100G-an-
4xSFP28-25G
NDAQGF-0002
NDAQGF-0003
QSFP28-100G-an-
4xSFP28-25G
QSFP28-100G-an-
4xSFP28-25G
NDAQGJ-0005 QSFP28-100G-an-
4xSFP28-25G
026FN3 Rev A00 QSFP28-100G-an-
4XSFP28-25G
0YFNDD Rev A00 QSFP28-100G-an-
4XSFP28-25G
07R9N9 Rev A00 QSFP28-100G-an-
4XSFP28-25G
10130795-4050LF QSFP28-100G-an-
4XSFP28-25G
5
1
1
3
2
3
5
1
2
3
5
Breite
k.A.
30
30
26
26
26
26
26
26
26
26
26
30
30
26 k.A.
k.A.
k.A.
280 AH0054602-01 F
B–Kabel und optische Module
Getestete Kabel und optische Module
Tabelle B-1. Getestete Kabel und optische Module (fortgesetzt)
Geschwindigkeit/
Formfaktor
Hersteller
Teilenummer Typ
Kabellänge
a
Avago
®
Optischer 10G-
Transceiver
Dell
Finisar
®
Dell
Optischer 25G-
Transceiver
Finisar
Optische Lösungen
AFBR-703SMZ SFP+ SR
AFBR-701SDZ
Y3KJN
SFP+ LR
SFP+ SR
WTRD1
3G84K
RN84N
FTLX8571D3BCL-
QL
SFP+ SR
SFP+ SR
SFP+ SR
SFP+ SR
FTLX1471D3BCL-
QL
P7D7R
SFP+ LR
FTLF8536P4BCL
FTLF8538P4BCL
Optischer SFP28-
Transceiver (SR)
Optischer SFP28-
Transceiver (SR)
Optischer SFP28-
Transceiver (SR, kein FEC) k.A.
k.A.
1G/10G
10G
10G
10G-LR k.A.
k.A.
25G SR k.A.
k.A.
Breite
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
281 AH0054602-01 F
B–Kabel und optische Module
Getestete Kabel und optische Module
Tabelle B-1. Getestete Kabel und optische Module (fortgesetzt)
Geschwindigkeit/
Formfaktor
Hersteller
Teilenummer
10G AOC
25G AOC
c Dell
Dell
InnoLight
®
470-ABLV
470-ABLZ
470-ABLT
470-ABML
470-ABLU
470-ABMD
470-ABMJ
YJF03
P9GND
T1KCN
1DXKP
MT7R2
K0T7R
W5G04
X5DH4
TF-PY003-N00
TF-PY020-N00 a
Die Kabellänge wird in Metern angegeben.
b
DAC ist ein Direktverbindungskabel.
c
AOC ist ein aktives optisches Kabel.
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP+ AOC
SFP28 AOC
SFP28 AOC
SFP28 AOC
Typ
Kabellänge
a
15
20
20
3
20
7
10
3
5
10
15
20
2
5
7
2
3
Breite
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
282 AH0054602-01 F
B–Kabel und optische Module
Getestete Switches
Getestete Switches
sind die Switches aufgeführt, die bezüglich Interoperabilität mit den
Adapter der 41
xxx
-Serien getestet wurden. Diese Liste basiert auf Switches, die zum Zeitpunkt der Produktveröffentlichung verfügbar waren, und unterliegt
Änderungen, sollten neue Switches in den Markt eingeführt oder nicht mehr angeboten werden.
Tabelle B-2. Auf Interoperabilität getestete Switches
Arista
Cisco
Dell EMC
HPE
Hersteller
Mellanox
®
Ethernet-Switch-Modell
7060X
7160
Nexus 3132
Nexus 3232C
Nexus 5548
Nexus 5596T
Nexus 6000
S6100
Z9100
FlexFabric 5950
SN2410
SN2700
283 AH0054602-01 F
C
Dell Z9100-Switch-
Konfiguration
Der Adapter der 41
xxx
-Serie unterstützt Verbindungen mit dem Dell
Z9100-Ethernet-Switch. Bis zur Standardisierung des automatischen
Verhandlungsprozesses muss der Switch jedoch explizit für die Verbindung mit dem Adapter mit 25 GBit/s konfiguriert werden.
So konfigurieren Sie einen Dell Z9100-Switch-Port für die Verbindung mit dem Adapter der 41
xxx
-Serie mit 25 GBit/s:
1.
Stellen Sie eine serielle Portverbindung zwischen Ihrer
Verwaltungs-Workstation und dem Switch her.
2.
Öffnen Sie eine Befehlszeilensitzung und melden Sie sich dann wie folgt am
Switch an:
Login:
admin
Passwort:
admin
3.
Aktivieren Sie die Konfiguration des Switch-Ports:
Dell>
enable
Passwort:
xxxxxx
Dell#
config
4.
Identifizieren Sie das Modul und den zu konfigurierenden Port. In diesem
Beispiel werden Modul 1 und Port 5 verwendet:
Dell(conf)#stack-unit 1 port 5 ?
portmode Set portmode for a module
Dell(conf)#stack-unit 1 port 5 portmode ?
dual Enable dual mode quad Enable quad mode single Enable single mode
Dell(conf)#stack-unit 1 port 5 portmode quad ?
speed Each port speed in quad mode
Dell(conf)#stack-unit 1 port 5 portmode quad speed ?
10G Quad port mode with 10G speed
284 AH0054602-01 F
C–Dell Z9100-Switch- Konfiguration
25G Quad port mode with 25G speed
Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G
Informationen zum Ändern der Verbindungsgeschwindigkeit des Adapters
finden Sie unter „Testen der Netzwerkanbindung“ auf Seite 272
.
5.
Überprüfen Sie, ob der Port bei 25 GB/s arbeitet:
Dell# Dell#
show running-config | grep "port 5"
stack-unit 1 port 5 portmode quad speed 25G
6.
Gehen Sie folgendermaßen vor, um die automatische Verhandlung auf
Switch-Port 5 zu deaktivieren: a.
Identifizieren Sie die Switch-Port-Schnittstelle (Modul 1, Port 5,
Schnittstelle 1) und bestätigen Sie den Status für die automatische
Aushandlung:
Dell(conf)#
interface tw 1/5/1
Dell(conf-if-tf-1/5/1)#intf-type cr4 ?
autoneg
Enable autoneg
b.
Deaktivieren Sie die automatische Aushandlung:
Dell(conf-if-tf-1/5/1)#
no intf-type cr4 autoneg
c.
Überprüfen Sie, ob die automatische Verhandlung deaktiviert wurde.
Dell(conf-if-tf-1/5/1)#
do show run interface tw 1/5/1
!
interface twentyFiveGigE 1/5/1 no ip address mtu 9416 switchport flowcontrol rx on tx on no shutdown no intf-type cr4 autoneg
Weitere Informationen zur Konfiguration des Dell Z9100-Switch finden Sie im entsprechenden Konfigurationshandbuch
Dell Z9100 Switch Configuration Guide
auf der Dell Support-Website: support.dell.com
285 AH0054602-01 F
D
Einschränkungen bei
Merkmalen und Funktionen
Dieser Anhang bietet Informationen zu den in der aktuellen Version vorhandenen
Einschränkungen bei den Merkmalen und Funktionen.
Die folgenden Einschränkungen in Bezug auf nebeneinander existierende
Merkmale werden möglicherweise mit einer künftigen Version gelöst. Sie können die Kombinationen aus Merkmalen und Funktionen künftig ohne zusätzliche
Konfigurationsschritte verwenden und müssen nur die zur Aktivierung dieser
Merkmale und Funktionen gewöhnlich erforderlichen Schritte ausführen.
Gleichzeitiges FCoE und iSCSI auf dem gleichen Port wird im
NPAR-Modus nicht unterstützt
In der aktuellen Version wird die Konfiguration von FCoE und iSCSI auf PFs, die zum gleichen physischen Port gehören, im NPAR-Modus nicht unterstützt
(gleichzeitiges FCoE und iSCSI auf dem gleichen Port
wird
nur im
Standardmodus unterstützt). Auf einem physischen Port im NPAR-Modus sind entweder FCoE oder iSCSI zulässig.
Nachdem eine PF mit der iSCSI- oder FCoE-Personalität über die HII- oder
QLogic-Verwaltungswerkzeuge auf einem Port konfiguriert wurde, wird die
Konfiguration des Speicherprotokolls auf einer anderen PF durch diese
Verwaltungswerkzeuge nicht unterstützt.
Da die Speicherpersonalität standardmäßig deaktiviert ist, wird nur die
Personalität, die über die HII- oder QLogic-Verwaltungswerkzeuge konfiguriert wurden, in die NVRAM-Konfiguration geschrieben. Wenn diese Einschränkung entfernt wird, können die Benutzer im NPAR-Modus zusätzliche PFs auf demselben Port für den Speicher konfigurieren.
Gleichzeitiges RoCE und iWARP auf demselben Port wird nicht unterstützt
RoCE und iWARP auf demselben Port wird nicht unterstützt Die HII- und
QLogic-Verwaltungswerkzeuge verhindern, dass Benutzer beide Elemente nebeneinander konfigurieren können.
286 AH0054602-01 F
D–Einschränkungen bei Merkmalen und Funktionen
NIC und SAN Boot auf Basis werden nur auf ausgewählten PFs unterstützt
Ethernet- und PXE-Start werden derzeit nur auf PF0 und PF1 unterstützt. In der
NPAR-Konfiguration werden Ethernet und PXE-Start durch andere PFs nicht unterstützt.
Wenn
Virtualization Mode
(Virtualisierungsmodus) auf
NPAR
gesetzt ist, wird der Nicht-Offlload-FCoE-Startvorgang auf Partition 2 (PF2 und PF3) unterstützt und der iSCSI-Startvorgang wird auf Partition 3 (PF4 und PF5) unterstützt. Die iSCSI- und FCoE-Startvorgänge sind auf ein einzelnes Ziel pro Startsitzung beschränkt. Die Unterstützung des iSCSI-Startziel-LUNs ist auf LUN-ID 0 beschränkt.
Wenn
Virtualization Mode
(Virtualisierungsmodus) auf
None
(Kein) oder
SR-IOV
gesetzt ist, wird der Start von SAN nicht unterstützt.
287 AH0054602-01 F
Glossar
ACPI
Die Spezifikation
Advanced Configuration and Power Interface (ACPI)
(Schnittstelle für erweiterte Konfiguration und
Stromversorgung) bietet einen offenen
Standard für einheitliche/s betriebssystembezogene/s
Gerätekonfiguration und
Strommanagement. Die ACPI definiert plattformunabhängige Schnittstellen für
Hardware-Erkennung, Konfiguration,
Strommanagement und Überwachung. Die
Spezifikation ist ein wichtiger
OSPM-Bestandteil (durch das
Betriebssystem gelenkte/s Konfiguration und Strommanagement). Dieser Begriff wird verwendet, um ein System zu beschreiben, auf dem ACPI implementiert wird. Damit entfällt die
Geräteverwaltungszuständigkeit von vorherigen Firmware-Schnittstellen.
Adapter
Platine, die als Schnittstelle zwischen dem
Hostsystem und den Zielgeräten fungiert.
Der Begriff Adapter ist gleichbedeutend mit Host Bus Adapter, Hostadapter und
Platine.
Adapter-Port
Ein Port auf der Adapterplatine.
Bandbreite
Die Bandbreite ist eine Maßeinheit für das
Datenvolumen, das bei einer bestimmten
Übertragungsrate übertragen werden kann. Abhängig vom angeschlossenen
Gerät kann ein Fibre-Channel-Port mit
1 GBit oder 2 GBit Daten mit nominalen
Raten von 1 GBit/s oder 2 GBit/s senden und empfangen. Dies entspricht tatsächlichen Bandbreitenwerten von
106 MB und 212 MB.
BAR
Basisadressregister. Wird verwendet, um
Speicheradressen, die von einem Gerät verwendet werden, oder Verschiebungen für Port-Adressen, zu erhalten. In der
Regel müssen Speicheradress-BARs in einem physischen RAM vorhanden sein, während E/A-Bereichs-BARs auf einer beliebigen Speicheradresse vorhanden sein können (selbst jenseits des physikalischen Speichers).
Basisadressregister
.
Basis-Eingabe/Ausgabe-System, BIOS
288 AH0054602-01 F
Benutzerhandbuch—Converged Network Adapters
41
xxx
-Serie
BIOS
Basis-Eingabe/Ausgabe-System
Programm (oder Dienstprogramm), das in der Regel im Flash PROM als Schnittstelle zwischen Hardware und Betriebssystem fungiert und das Starten über den Adapter ermöglicht.
Computer mit reduziertem Befehlssatz
Siehe
.
Data Center Bridging
Siehe
Data Center Bridging-Austausch
Siehe
Dateiübertragungsprotokoll
Siehe
DCB
Data Center Bridging. Bietet
Verbesserungen für vorhandene 802.1
Bridge-Spezifikationen, um den
Anforderungen von Protokollen und
Anwendungen im Rechenzentrum gerecht zu werden. Da vorhandene
Hochleistungsrechenzentren in der Regel mehrere anwendungsspezifische
Netzwerke umfassen, die auf verschiedenen
Verbindungsschicht-Technologien ausgeführt werden (Fibre Channel für
Speicherung und Ethernet für
Netzwerkverwaltung und
LAN-Konnektivität), ermöglicht DCB die
Verwendung von 802.1 Bridges für die
Bereitstellung eines konvergenten
Netzwerks, bei dem alle Anwendungen
über eine einzige physische Infrastruktur ausgeführt werden können.
DCBX
Data Center Bridging-Austausch.
Protokoll, das von DCB -Geräten
verwendet wird, um
Konfigurationsinformationen mit direkt angeschlossenen Peers auszutauschen.
Das Protokoll kann auch zur Erkennung von Fehlkonfigurationen und für die
Konfiguration des Peers verwendet werden.
DHCP
Dynamisches
Host-Konfigurationsprotokoll. Mit diesem
Protokoll können Computer in einem
IP-Netzwerk ihre Konfiguration von
Servern extrahieren, um Informationen zu diesem Computer nur auf Anfrage bereitzustellen.
Dynamisches
Host-Konfigurationsprotokoll
eCore
Eine Schicht zwischen dem BS und der
Hardware/Firmware. Es handelt sich um eine gerätespezifische BS-Agnostik. Wenn der eCore-Code BS-Dienste erfordert
(z. B. für die Speicherzuordnung, für den
Zugriff auf den PCI-Konfigurationsbereich usw.), ruft er eine abstrakte BS-Funktion ab, die in BS-spezifischen Schichten implementiert ist. eCore-Datenflüsse können durch die Hardware (z. B. über einen Interrupt) oder durch den
BS-spezifischen Bestandteil des Treibers
(z. B. durch das Laden oder Entladen des
Treibers) gefördert werden.
289 AH0054602-01 F
Benutzerhandbuch—Converged Network Adapters
41
xxx
-Serie
EEE
Energieeffizientes Ethernet. Eine Reihe von Verbesserungen an der Familie der
Computer-Netzwerkstandards für Ethernet mit verdrillten Kabeln und Backplanes, die einen geringen Stromverbrauch in Zeiten geringer Datenaktivität ermöglichen. Es wurde das Ziel verfolgt, den
Stromverbrauch um mindestens 50
Prozent bei unverändert umfassender
Kompatibilität mit den vorhandenen
Geräten zu reduzieren. Das Institute of
Electrical and Electronics Engineers
(IEEE) hat mit Unterstützung der IEEE
802.3az-Arbeitsgruppe den Standard entwickelt.
EFI
Erweiterbare Firmware-Schnittstelle.
Spezifikation, durch die eine
Softwareschnittstelle zwischen einem
Betriebssystem und der
Plattform-Firmware definiert wird. EFI fungiert als Ersatz für die frühere
BIOS-Firmware-Schnittstelle, die in allen
IBM PC-kompatiblen Personalcomputern vorhanden war.
Einheitliche erweiterbare
Firmware-Schnittstelle
Siehe
.
energieeffizientes Ethernet
Siehe
Erweiterbare Firmware-Schnittstelle.
Siehe
.
Ethernet
Die am häufigsten verwendete
LAN-Technologie, mit der Informationen zwischen Computern übertragen werden, in der Regel mit einer Geschwindigkeit von
10 und 100 Millionen Bit pro Sekunde
(Mb/s).
ETS
Verbesserte Übertragungsauswahl.
Standard, der die erweiterte
Übertragungsauswahl festlegt, um die
Zuteilung von Bandbreite für die verschiedenen Datenverkehrsklassen zu unterstützen. Wenn die angebotene Last in einer Datenverkehrsklasse die ihr zugeteilte Bandbreite nicht in Anspruch nimmt, ermöglicht die erweiterte
Übertragungsauswahl anderen
Datenverkehrsklassen, die verfügbare
Bandbreite zu nutzen. Die Prioritäten für die Zuteilung von Bandbreite bestehen parallel zu strikten Prioritäten. ETS enthält verwaltete Objekte, um die
Bandbreitenzuteilung zu unterstützen.
Weitere Informationen finden Sie unter: http://ieee802.org/1/pages/802.1az.html
FCoE
Fibre Channel Over Ethernet Eine neue
Technologie, die durch die
T11-Normungsorganisation definiert wurde und ermöglicht, dass
Netzwerkdatenverkehr auf herkömmlichen
Fibre Channel-Speichern einen
Ethernet-Link durchlaufen kann, indem
Fibre Channel-Frames innerhalb von
Layer 2 Ethernet-Frames verkapselt werden. Weitere Informationen finden Sie auf www.fcoe.com
.
Fibre Channel over Ethernet
.
FTP
Dateiübertragungsprotokoll
Standard-Netzwerkprotokoll für die
Übertragung von Dateien zwischen zwei
Hosts über ein TCP-basiertes Netzwerk, wie beispielsweise das Internet. FTP ist für das bandexterne Laden der Firmware erforderlich, das schneller ist als bandinternes Laden.
290 AH0054602-01 F
Benutzerhandbuch—Converged Network Adapters
41
xxx
-Serie
Gerät
Ziel , in der Regel ein Plattenlaufwerk.
Hardware, wie z. B. Festplattenlaufwerke,
Bandlaufwerk, Drucker oder Tastatur, die auf einem verbundenen System installiert ist. In Fibre Channel ein
Zielgerät
.
HII
Human Interface-Infrastruktur.
Spezifikation (Teil von UEFI 2.1) zur
Verwaltung von Benutzereingaben, lokalisierten Zeichenketten, Schriftarten und Masken, die es OEM-Herstellern ermöglicht, grafische Schnittstellen für die
Preboot-Konfiguration zu entwickeln.
Human Interface-Infrastruktur
Siehe
IEEE
Institute of Electrical and Electronics
Engineers (Weltweiter Berufsverband von
Ingenieuren aus den Bereichen
Elektrotechnik und Informationstechnik,
IEEE) Internationale, gemeinnützige
Organisation für die Weiterentwicklung der
Technologie im Bereich Elektrizität.
Internet Small Computer
System-Schnittstelle
Siehe
Internet Wide Area RDMA-Protokoll
Siehe
.
Internetprotokoll
Siehe
.
IP
Internetprotokoll Ein Verfahren, bei dem
Daten über das Internet von einem
Computer zu einem anderen gesendet werden. IP definiert das Format der
Pakete, auch als
Datagramme
bezeichnet, und das Adressierungsschema.
IQN
Qualifizierter iSCSI-Name. iSCSI-Knotenname auf Basis des
Initiator-Herstellers und einem eindeutigen
Gerätenamen-Abschnitt.
iSCSI
Internet Small Computer
System-Schnittstelle. Protokoll, bei dem
Daten in IP-Pakete eingekapselt werden, um sie über Ethernet-Verbindungen zu versenden.
iWARP
Internet Wide Area
-Protokoll Ein
Netzwerkprotokoll, das RDMA für eine effiziente Datenübertragung über
IP-Netzwerke implementiert. iWARP wurde für mehrere Umgebungen konzipiert, darunter LANs,
Speichernetzwerke,
Rechenzentrumsnetzwerke und WANs.
Jumbo-Frames
Große IP-Frames, die in
Hochleistungsnetzwerken verwendet werden, um die Leistung über große
Distanzen zu verbessern. Jumbo-Frames bedeutet in der Regel 9.000 Bytes pro
Gigabit Ethernet , es kann sich jedoch auf
alles beziehen, was über IP
übertragen wird, also 1.500 Bytes auf einem Ethernet.
Large Send-Offload
.
291 AH0054602-01 F
Benutzerhandbuch—Converged Network Adapters
41
xxx
-Serie
LLDP
Ein lieferantenunabhängiges
Schicht-2-Protokoll, mit dem ein
Netzwerkgerät seine Identität und
Funktionen auf dem lokalen Netzwerk bekannt machen kann. Dieses Protokoll ersetzt Protokolle wie das Cisco Discovery
Protocol, das Extreme Discovery Protocol und das Nortel Discovery Protocol (auch bekannt als SONMP).
Die mit LLDP erfassten Informationen werden im Gerät gespeichert und können
über SNMP abgefragt werden. Die
Topologie eines LLDP-aktivierten
Netzwerks kann durch das Durchforsten der Hosts und die Abfrage dieser
Datenbank ermittelt werden.
LSO
Large Send-Offload. Funktion des
LSO-Ethernet-Adapters, mit dem der
TCP\IP-Netzwerkstapel eine große
TCP-Nachricht (mit bis zu 64 KB) aufbauen kann, bevor die Nachricht an den Adapter gesendet wird. Die
Adapter-Hardware segmentiert die
Nachricht in kleinere Datenpakete
(Frames), die über das kabelgebundene
Netzwerk gesendet werden können: bis zu
1.500 Bytes bei
Standard-Ethernet-Frames und bis zu
9.000 Bytes bei Jumbo-Ethernet-Frames.
Mit diesem Segmentierungsprozess wird die Server-CPU von der Last befreit, große
TCP-Nachrichten in kleinere Pakete segmentieren zu müssen, die in die unterstützte Frame-Größe passen.
Maximale Übertragungseinheit
Siehe
.
MSI, MSI-X
Per Meldung angeforderte Interrupts Eine von zwei PCI-definierten Erweiterungen für die Unterstützung von per Meldung angeforderten Interrupts (Message
Signaled Interrupts) mit PCI ab Version 2.2 und PCI Express. MSIs sind eine alternative Methode zum Generieren von
Interrupts durch spezielle Meldungen, welche die Emulation einer Pin-Aktivierung oder -Deaktivierung ermöglichen.
Mit MSI-X (definiert in PCI 3.0) kann ein
Gerät eine beliebige Anzahl an Interrupts
(zwischen 1 und 2.048 Interrupts) und jedem Interrupt separate Daten- und
Adressregister zuweisen. Optionale
Merkmale und Funktionen in MSI
(64-Bit-Adressierung und
Interrupt-Maskierung) sind bei MSI-X obligatorisch.
MTU
Maximale Übertragungseinheit. Bezieht sich auf die Größe (in Byte) des größten
Pakets (IP-Datagramm), das eine bestimmte Schicht eines
Kommunikationsprotokolls übertragen kann.
Netzwerkschnittstellenkarte
NIC
Netzwerkschnittstellenkarte. Installierte
Computerkarte zur Aktivierung einer bestimmten Netzwerkverbindung.
nicht-flüchtiger Direktzugriffsspeicher
(RAM)
Nicht-flüchtiger Express-Speicher
.
292 AH0054602-01 F
Benutzerhandbuch—Converged Network Adapters
41
xxx
-Serie
NIC-Partitionierung
Siehe
.
NPAR
Partitionierung. Die Aufteilung eines einzelnen NIC-Ports in mehrere physische
Funktionen oder Partitionen, wobei jeder davon eine benutzerkonfigurierbare
Bandbreite und Personalität
(Schnittstellentyp) zugewiesen wird. Zu den Personalitäten gehören:
.
NVMe
Eine Speicherzugriffsmethode, die für
Festkörperlaufwerke (SSDs) entwickelt wurde.
NVRAM
Nicht-flüchtiger Direktzugriffsspeicher
(RAM). Ein Speichertyp, der Daten empfängt (Konfigurationseinstellungen), selbst wenn die Stromversorgung unterbrochen wird. Sie können die
NVRAM-Einstellungen manuell konfigurieren oder sie aus einer Datei wiederherstellen.
OFED™
OpenFabrics Enterprise Distribution. Eine
Open-Source-Software für RDMA und
Kernel-Bypass-Anwendungen.
PCI Express (PCIe)
E/A-Standard der 3. Generation, der eine verbesserte Leistung des
Ethernet-Netzwerks ermöglicht, die über die der älteren Peripheral Component
Interconnect (PCI) hinausgeht, sowie
PCI-erweiterte (PCI-X)-Desktop- und
Serversteckplätze bietet.
PCI™
Peripheriekomponentenschnittstelle (PCI).
Eine lokale 32-Bit-Busspezifikation, die von Intel
®
eingeführt wurde.
Per Meldung angeforderte Interrupts
.
PF
Physische Funktion.
QoS
Servicequalität Bezieht sich auf die angewandten Methoden zur Vermeidung von Engpässen und Sicherstellung der
Geschäftskontinuität bei der Übertragung von Daten über virtuelle Ports durch
Vornahme von Prioritätseinstellungen und
Bandbreitenzuordnungen.
Qualifizierter iSCSI-Name
Quality-of-Service
.
RDMA
Remote-Direktzugriffspeicher.
Remote-Direktzugriffspeicher; die
Fähigkeit eines Knotens, über ein
Netzwerk direkt in den Speicher eines anderen Knotens zu schreiben (mit
Adress- und Größensemantik). Diese
Fähigkeit ist ein wichtiges Merkmal von
-Netzwerken.
RDMA over Converged Ethernet (RoCE)
.
Remote-Direktzugriffspeicher
293 AH0054602-01 F
Benutzerhandbuch—Converged Network Adapters
41
xxx
-Serie
RISC
Computer mit reduziertem Befehlssatz.
Ein Computer-Mikroprozessor, der weniger Typen von
Computeranweisungen durchführt und dadurch schneller arbeitet.
RoCE
RDMA over Converged Ethernet.
Netzwerkprotokoll, das den
Remote-Direktzugriffspeicher (RDMA)
über ein konvergentes oder nicht konvergentes Ethernet-Netzwerk ermöglicht. RoCE ist ein
Verbindungsschichtprotokoll, das die
Kommunikation zwischen zwei beliebigen
Hosts in derselben Ethernet Broadcast
Domain ermöglicht.
Schicht 2
Bezieht sich auf die Sicherungsschicht des
Mehrschicht-Kommunikationsmodells
„Open Systems Interconnection“ (OSI).
Bei der Sicherungsschicht werden die
Daten über die physischen Verknüpfungen in einem Netzwerk gelenkt, in dem ein
Switch Datennachrichten auf Ebene von
Schicht 2 mithilfe der Ziel-MAC-Adresse umleitet, um das Ziel der Nachricht zu bestimmen.
Schnittstelle für erweiterte Konfiguration und Stromversorgung
Siehe
.
SCSI
Small Computer System-Schnittstelle.
Eine Hochgeschwindigkeitsschnittstelle, die zum Anschließen von Geräten an einen Computer verwendet wird, darunter
Festplattenlaufwerke, CD-Laufwerk,
Drucker und Scanner. Über SCSI können viele Geräte über einen Controller angeschlossen werden. Auf jedes Gerät wird über eine individuelle ID auf dem
SCSI-Controller-Bus zugegriffen.
SerDes
Serialisierungsprogramm/Deserialisierung sprogramm. Ein Paar aus funktionalen
Blöcken, das üblicherweise für die
Hochgeschwindigkeits-Datenübertragung verwendet wird, um eine begrenzte
Eingabe/Ausgabe zu kompensieren. Diese
Blöcke konvertieren Daten zwischen seriellen Daten und parallelen
Schnittstellen in jede Richtung.
Serialisierungsprogramm/Deserialisierung sprogramm
.
Single Root Input/Output-Virtualisierung
Small Computer System-Schnittstelle
SR-IOV
Single Root Input/Output-Virtualisierung
Eine Spezifikation von PCI SIG, mit der ein einzelnes PCIe-Gerät als mehrere, separate physische PCIe-Geräte angezeigt werden kann. SR-IOV ermöglicht die Isolation von
PCIe-Ressourcen zum Zwecke der
Leistung, Interoperabilität und
Verwaltbarkeit.
294 AH0054602-01 F
Benutzerhandbuch—Converged Network Adapters
41
xxx
-Serie
TCP
Übertragungssteuerungsprotokoll. Ein
Regelsatz zum Senden von Daten in
Paketen über das Internetprotokoll.
TCP/IP
Übertragungssteuerungsprotokoll/Internet protokoll. Basiskommunikationssprache des Internets.
TLV
Typ-Länge-Wert. Optionale Informationen, die als ein Element innerhalb eines
Protokolls kodiert werden können. Die
Typen- und Längenfelder sind in der
Größe fest definiert (typischerweise 1 bis
4 Bytes), während das Wertefeld mit einer variablen Größe definiert ist. Die folgenden Felder werden wie folgt verwendet:
Typ: Ein numerischer Code, der die Art des Felds angibt, den dieser Teil der
Nachricht darstellt.
Länge: Die Größe des Wertefelds
(typischerweise angegeben in Bytes).
Wert: Byte-Satz mit variabler Größe, der Daten für diesen Teil der Nachricht enthält.
Transmission Control Protocol
Siehe
Treiber
Software, die als Schnittstelle zwischen dem Dateisystem und dem physischen
Datenspeichergerät oder Netzwerkmedien fungiert.
Typ-Länge-Wert
Siehe
Übertragungssteuerungsprotokoll/Internet protokoll
Siehe
UDP
User Datagram-Protokoll Ein verbindungsloses Übertragungsprotokoll ohne Garantie, dass das Paket in der gewünschten Reihenfolge oder überhaupt geliefert wird. Es arbeitet direkt oberhalb des IP.
UEFI
Einheitliche erweiterbare
Firmware-Schnittstelle. Spezifikation, die eine Schnittstelle beschreibt, mit deren
Hilfe die Steuerung über das System in der
Preboot-Umgebung (d. h. nachdem das
System eingeschaltet, das Betriebssystem jedoch noch nicht gestartet wurde) an ein
Betriebssystem wie Windows oder Linux
übergeben werden kann. UEFI stellt während des Starts eine Schnittstelle zwischen Betriebssystem und
Plattform-Firmware bereit und unterstützt einen architekturunabhängigen
Mechanismus für das Initialisieren von
Add-In-Karten.
User Datagram Protocol
.
Verbesserte Übertragungsauswahl
.
Verbindungsschichterkennungsprotokoll
(LLDP)
.
VF
Virtuelle Funktion.
VI
Virtuelle Schnittstelle. Eine Initiative für
Remote-Direktzugriffspeicher für Fibre
Channel und andere
Kommunikationsprotokolle. Wird für
Cluster-Bildung und Messaging verwendet.
295 AH0054602-01 F
Benutzerhandbuch—Converged Network Adapters
41
xxx
-Serie
Virtuelle Maschine
Siehe
.
Virtuelle Schnittstelle
Siehe
.
Virtuelles logisches Netzwerk
Siehe
VLAN
Virtuelles logisches Netzwerk (LAN). Eine
Gruppe mit Hosts mit einem gemeinsamen
Anforderungssatz, die kommunizieren, als wenn sie über das gleiche Datenkabel verbunden wären, unabhängig von der jeweiligen physischen Position. Obwohl ein VLAN dieselben Attribute wie ein physisches LAN aufweist, können
Endstationen gruppiert werden, selbst wenn sie nicht auf dem gleichen
LAN-Segment vorhanden sind. VLANs ermöglichen die Netzwerkneukonfiguration
über Software, anstatt Geräte physisch neu positionieren zu müssen.
VM
Virtuelle Maschine. Eine
Software-Implementierung einer Maschine
(eines Computers), die Programme wie eine reale Maschine ausführt.
Wake on LAN
Siehe
.
WoL
Wake-on-LAN. Ein Ethernet-basierter
Computer-Netzwerkstandard, mit dem ein
Computer über eine Netzwerknachricht per remote eingeschaltet oder reaktiviert werden kann. Diese Nachricht wird i.d.R.
über ein einfaches Programm gesendet, die von einem anderen Computer innerhalb des Netzwerks versendet wird.
Ziel
Der Speichergeräteendpunkt einer
SCSI-Sitzung. Die Initiatoren fordern
Daten von Zielen an. Ziele sind in der
Regel Festplattenlaufwerke,
Bandlaufwerke oder sonstige
Datenträgergeräte. In der Regel ist ein
SCSI-Peripheriegerät das Ziel, jedoch kann in manchen Fällen auch der Adapter ein Ziel sein. Ein Ziel kann mehrere LUNs enthalten.
Ein Ziel ist ein Gerät, das auf eine
Anforderung durch einen Initiator (das
Host-System) reagiert. Peripheriegeräte sind Ziele, für manche Befehle (z. B. den
SCSI-Befehl „COPY“ (Kopieren) kann das
Peripheriegerät jedoch auch als Initiator agieren.
296 AH0054602-01 F
Firmenzentrale
Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100
Internationale Niederlassungen
Großbritannien | Irland | Deutschland | Frankreich | Indien | Japan | China | Hongkong | Singapur | Taiwan | Israel
Copyright © 2017, 2018 Cavium, Inc. Weltweit alle Rechte vorbehalten. QLogic Corporation ist eine hundertprozentige Tochtergesellschaft im Eigentum von Cavium, Inc. Cavium, FastLinQ,
QConvergeConsole, QLogic und SmartAN sind eingetragene Markenzeichen von Cavium, Inc. Alle anderen Marken oder Produktnamen sind Marken oder eingetragene Markenzeichen ihrer jeweiligen
Eigentümer.
Dieses Dokument dient lediglich zu Informationszwecken und kann unter Umständen Fehler enthalten. Cavium behält sich das Recht vor, ohne vorherige Ankündigung Änderungen an diesem Dokument, am Produktdesign oder an den technischen Daten vorzunehmen. Cavium gewährt keinerlei ausdrückliche oder stillschweigende Garantien und garantiert nicht, dass die in diesem Dokument beschriebenen
Ergebnisse oder Leistungen tatsächlich von Ihnen erzielt werden. Sämtliche Aussagen zur künftigen Ausrichtung und zu Absichten von Cavium können ohne Vorankündigung geändert werden und beschreiben lediglich Zielsetzungen und Vorhaben.
advertisement
* Your assessment is very important for improving the workof artificial intelligence, which forms the content of this project
Related manuals
advertisement
Table of contents
- 14 Liste der Abbildungen
- 17 Tabellenliste
- 18 Unterstützte Produkte
- 18 Zielanwender
- 19 Inhalt dieses Handbuchs
- 20 Konventionen im Dokument
- 22 Rechtliche Hinweise
- 22 Laser-Sicherheit – FDA-Hinweis
- 23 Behördenzertifikat
- 23 Störstrahlungs- und EMV-Anforderungen
- 24 KCC: Klasse A
- 24 VCCI: Klasse A
- 24 Konformität mit der Produktsicherheit
- 26 Funktionsbeschreibung
- 26 Merkmale und Funktionen
- 28 Technische Daten des Adapters
- 28 Physische Kenndaten
- 28 Standardspezifikationen
- 29 Systemanforderungen
- 30 Sicherheitsvorkehrungen
- 31 Checkliste für die Installationsvorbereitung
- 31 Installieren des Adapters
- 33 Installieren der Linux-Treibersoftware
- 35 Installieren der Linux-Treiber ohne RDMA
- 35 Entfernen der Linux-Treiber
- 38 Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets
- 39 Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets
- 39 Installieren der Linux-Treiber unter Verwendung der TAR-Datei
- 40 Installieren der Linux-Treiber mit RDMA
- 41 Optionale Parameter für Linux-Treiber
- 41 Standardwerte für den Betrieb der Linux-Treiber
- 42 Linux-Treibermeldungen
- 42 Statistikdaten
- 42 Installieren der Windows-Treibersoftware
- 42 Installieren der Windows-Treiber
- 43 Ausführen des DUP über die GUI
- 49 DUP-Installationsoptionen
- 50 DUP-Installationsbeispiele
- 50 Entfernen der Windows-Treiber
- 51 Verwalten von Adaptereigenschaften
- 52 Einstellen der Optionen zum Strommanagement
- 53 Installieren der VMware-Treibersoftware
- 53 VMware-Treiber und Treiberpakete
- 54 Installieren der VMware-Treiber
- 56 Optionale Parameter des VMware-Treibers
- 58 Standardeinstellungen für VMware-Treiberparameter
- 58 Entfernen des VMware-Treibers
- 59 Unterstützung von FCoE
- 59 iSCSI-Unterstützung
- 61 Ausführen des DUP durch Doppelklicken
- 64 Ausführen des DUP über eine Befehlszeile
- 65 Ausführen des DUP über die BIN-Datei
- 68 Erste Schritte
- 72 Anzeigen der Eigenschaften des Firmware-Abbilds
- 73 Konfigurieren der Parameter auf Geräteebene
- 74 Konfigurieren von NIC-Parametern
- 79 Konfigurieren des Data Center Bridging
- 80 Konfigurieren des FCoE-Startvorgangs
- 82 Konfigurieren des iSCSI-Startvorgangs
- 86 Konfigurieren von Partitionen
- 92 Partitionieren für VMware ESXi 6.0 und ESXi 6.5
- 94 Unterstützte Betriebssysteme und OFED
- 95 Planen für RoCE
- 96 Vorbereiten des Adapters
- 97 Vorbereiten des Ethernet-Switches
- 97 Konfigurieren des Cisco Nexus 6000 Ethernet-Switches
- 98 Konfigurieren des Dell Z9100 Ethernet-Switches
- 98 Konfigurieren von RoCE auf dem Adapter für Windows Server
- 102 Anzeigen von RDMA-Zählern
- 108 Konfigurieren von RoCE auf dem Adapter für Linux
- 109 RoCE-Konfiguration für RHEL
- 109 RoCE-Konfiguration für SLES
- 110 Überprüfen der RoCE-Konfiguration auf Linux
- 112 VLAN-Schnittstellen und GID-Indexwerte
- 113 Konfiguration von RoCE V2 für Linux
- 113 Bestimmen des RoCE v2-GID-Indexes oder der Adresse
- 114 Überprüfen des GID-Indexes für RoCE v1 oder RoCE v2 sowie der Adresse mithilfe der System- und Kategorieparameter
- 115 Überprüfen der RoCE v1- oder RoCE v2-Funktion mithilfe der perftest-Anwendungen
- 119 Konfigurieren von RoCE auf dem Adapter für VMware ESX
- 119 Konfigurieren von RDMA-Schnittstellen
- 121 Konfigurieren von MTU
- 121 RoCE-Modus und Statistikdaten
- 122 Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA)
- 126 Vorbereiten des Adapters auf iWARP
- 127 Konfigurieren von iWARP unter Windows
- 130 Konfigurieren von iWARP unter Linux
- 131 Installieren des Treibers
- 131 Konfigurieren von iWARP und RoCE
- 132 Erkennen des Geräts
- 133 Unterstützte iWARP-Anwendungen
- 133 Ausführen des Befehls „Perftest“ für iWARP
- 134 Konfigurieren von NFS-RDMA
- 136 iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und OFED 4.8x
- 138 Vor dem Start
- 139 Konfigurieren von iSER für RHEL
- 142 Konfigurieren von iSER für SLES 12
- 143 Verwenden von iSER mit iWARP auf RHEL und SLES
- 145 Optimieren der Linux-Leistung
- 145 Konfigurieren von CPUs in den Modus für die maximale Leistung
- 145 Konfigurieren von Kernel-sysctl-Einstellungen
- 146 Konfigurieren der IRQ-Affinitätseinstellungen
- 146 Konfigurieren der Blockgerätestaffelung
- 146 Konfigurieren von iSER auf SLES 6.7
- 146 Vor dem Start
- 147 Konfigurieren von iSER für ESXi 6.7
- 150 iSCSI-Start
- 151 Einrichten von iSCSI-Boot
- 151 Auswählen des bevorzugten iSCSI-Startmodus
- 152 Konfigurieren des iSCSI-Ziels
- 152 Konfigurieren der iSCSI-Bootparameter
- 154 Adapterkonfiguration für den UEFI-Boot-Modus
- 157 Konfigurieren des iSCSI-Startvorgangs
- 158 Konfigurieren einer statischen iSCSI-Boot-Konfiguration
- 166 Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration
- 168 Aktivieren der CHAP-Authentifizierung
- 169 Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs
- 169 DHCP-Konfigurationen für den iSCSI-Startvorgang bei IPv4
- 170 DHCP Option 17, Root Path
- 170 DHCP Option 43, herstellerspezifische Informationen
- 171 Konfigurieren des DHCP-Servers
- 172 Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4
- 172 DHCPv6 Option 16, Vendor Class-Option
- 172 DHCPv6 Option 17, Herstellerspezifische Informationen
- 173 Konfigurieren von VLANs für den iSCSI-Startvorgang
- 174 iSCSI-Offload unter Windows Server
- 175 Installieren der QLogic-Treiber
- 175 Installieren von Microsoft iSCSI Software Initiator
- 175 Konfigurieren von Microsoft Initiator zur Verwendung des iSCSI Offload von QLogic
- 182 Häufig gestellte Fragen (FAQs) zu iSCSI-Offload
- 183 Installation von iSCSI-Boot für Windows Server 2012 R2 und 2016
- 184 iSCSI-Absturzspeicherabbild
- 184 iSCSI-Offload in Linux-Umgebungen
- 185 Unterschiede zu bnx2i
- 185 Konfigurieren von qedi.ko
- 186 Überprüfen von iSCSI-Schnittstellen in Linux
- 188 Open-iSCSI und Starten über SAN – Überlegungen
- 190 RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“
- 193 RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“
- 195 SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“
- 196 SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“
- 198 SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“ über MPIO
- 201 Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4
- 205 FCoE – Starten über SAN
- 206 Vorbereiten des System-BIOS auf den Aufbau und das Starten von FCoE
- 206 Definieren des BIOS-Startprotokolls
- 206 Konfigurieren des Adapter-UEFI-Startmodus
- 211 Windows FCoE – Starten über SAN
- 211 Installation von FCoE-Boot für Windows Server 2012 R2 und 2016
- 212 Konfigurieren von FCoE
- 212 FCoE-Absturzspeicherbild
- 213 Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien
- 214 Konfigurieren von Linux FCoE-Offload
- 215 Unterschiede zwischen qedf und bnx2fc
- 215 Konfigurieren von qedf.ko
- 216 Überprüfen von FCoE-Geräten in Linux
- 217 Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4
- 221 Konfigurieren von SR-IOV unter Windows
- 228 Konfigurieren von SR-IOV unter Linux
- 235 Konfigurieren von SR-IOV unter VMware
- 242 Installieren von Gerätetreibern auf beiden Servern
- 243 Konfigurieren des Zielservers
- 245 Konfigurieren des Initiatorservers
- 247 Vorbehandeln des Zielservers
- 247 Testen der NVMe-oF-Geräte
- 249 Optimieren der Leistung
- 250 .IRQ-Affinität (multi_rss-affin.sh)
- 251 CPU-Intervall (cpufreq.sh)
- 252 Konfigurieren von RoCE-Schnittstellen mit Hyper-V
- 253 Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen RDMA-NIC
- 255 Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC
- 255 Überprüfen, ob RoCE aktiviert ist
- 256 Hinzufügen von virtuellen Host-NICs (virtuelle Ports)
- 256 Zuordnen des SMB-Laufwerks und Ausführen von RoCE-Datenverkehr
- 258 RoCE über Switch – Eingebettetes Teaming
- 258 Erstellen eines virtuellen Hyper-V-Switches mit SET und virtuellen RDMA-NICs
- 259 Aktivieren von RDMA auf SET
- 259 Zuweisen einer VLAN-ID auf SET
- 259 Ausführen von RDMA-Datenverkehr auf SET
- 260 Konfigurieren von QoS für RoCE
- 260 Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter
- 264 Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter
- 268 Konfigurieren von VMMQ
- 269 Aktivieren von VMMQ auf dem Adapter
- 269 Festlegen des VMMQ Max QPs-Standard- und Nicht-Standard-Ports
- 270 Erstellen eines Switches für eine virtuelle Maschine mit oder ohne SR-IOV
- 272 Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine
- 272 Abrufen der Funktionen für den Switch der virtuellen Maschine
- 273 Erstellen einer VM und Aktivieren von VMMQ auf VM-Netzwerkadaptern in der VM
- 274 Virtuelle Standard- und Maximum VMMQ-NIC
- 274 Aktivieren und Deaktivieren von VMMQ auf einer Verwaltungs-NIC
- 275 Überwachen der Datenverkehrsstatistik
- 275 Konfigurieren von VXLAN
- 275 Aktivieren von VXLAN-Offload auf dem Adapter
- 276 Implementieren eines Software Defined Network
- 277 Konfigurieren der Funktion „Direkte Speicherplätze“
- 277 Konfigurieren der Hardware
- 278 Implementieren eines Hyper-Konvergenzsystems
- 278 Implementieren des Betriebssystems
- 278 Konfigurieren des Netzwerks
- 281 Konfigurieren der Funktion „Direkte Speicherplätze“
- 284 Implementieren und Verwalten eines Nano-Servers
- 284 Rollen sowie Merkmale und Funktionen
- 286 Implementieren eines Nano-Servers auf einem physischen Server
- 288 Implementieren eines Nano-Servers in einer virtuellen Maschine
- 290 Verwalten eines Nano-Servers über eine Remote-Verbindung
- 291 Verwalten eines Nano-Servers über die Windows PowerShell-Remote-Verwaltung
- 291 Hinzufügen des Nano-Servers zu einer Liste der vertrauenswürdigen Hosts
- 291 Starten der Remote-Windows PowerShell-Sitzung
- 292 Verwalten von QLogic-Adaptern auf einem Windows-Nano-Server
- 292 RoCE-Konfiguration
- 295 Fehlerbehebung – Checkliste
- 296 Überprüfen der geladenen Treiber
- 296 Überprüfen von Treibern in Windows
- 296 Überprüfen von Treibern in Windows
- 297 Überprüfen von Treibern in VMware
- 297 Testen der Netzwerkanbindung
- 298 Testen der Netzwerkkonnektivität für Windows
- 298 Testen der Netzwerkkonnektivität für Linux
- 299 Microsoft Virtualization mit Hyper-V
- 299 Linux-spezifische Probleme
- 299 Sonstige Probleme
- 299 Erfassen von Fehlerbehebungsdaten
- 302 Unterstützte Spezifikationen
- 304 Getestete Kabel und optische Module
- 308 Getestete Switches