Dell QLogic Family of Adapters Benutzerhandbuch

Add to my manuals
322 Pages

advertisement

Dell QLogic Family of Adapters Benutzerhandbuch | Manualzz

AH0054602-01 F

Benutzerhandbuch

Konvergente Netzwerkadapter

41

xxx

-Serie

Informationen Dritter, die mit freundlicher

Genehmigung von Dell EMC bereitgestellt wurden.

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

Dokumenten-Überarbeitungsverlauf

Überarbeitung A, 28. April 2017

Überarbeitung B, 24. August 2017

Überarbeitung C, 1. Oktober 2017

Überarbeitung D, 24. Januar 2018

Überarbeitung E, 15. März 2018

Überarbeitung F, 19. April 2018

Änderungen Betroffener Abschnitt

Beispiele für Dokumentationskonventionen aktualisiert.

Überholte Abschnitte zu QLogic

Lizenzvereinbarungen

und

Garantie

entfernt.

„Konventionen im Dokument“ auf Seite xx

Vorwort

In

Tabelle 3-5 Fußnote hinzugefügt: „Weitere

ESXi-Treiber werden möglicherweise nach der

Veröffentlichung des Benutzerhandbuchs verfügbar. Weitere Informationen finden Sie in den Versionshinweisen.”

In

Tabelle 6-1 :

OED-Werte für Windows Server und VMware

ESXi aktualisiert.

Zeile für VMware ESXi 6.7 hinzugefügt.

Fußnote gelöscht: „Der zertifizierte RoCE-Treiber ist in dieser Version nicht enthalten. Der zertifizierte Treiber ist in einer frühen Vorschau enthalten.“

„VMware-Treiber und Treiberpakete“ auf Seite 28

„Unterstützte Betriebssysteme und OFED“ auf

Seite 69

Neues Verfahren für die Anzeige von Cavium

RDMA-Zählern für RoCE und iWARP unter

Windows hinzugefügt.

Nach Abbildung 7-4 Hinweis mit einem Querver-

weis zum Verfahren

„Anzeigen von RDMA-Zählern“ auf Seite 77

hinzugefügt.

Informationen für die Konfiguration von iSER für

VMware ESXi 6.7 hinzugefügt.

„Anzeigen von RDMA-Zählern“ auf Seite 77

„Konfigurieren von iWARP unter Windows“ auf

Seite 102

„Konfigurieren von iSER auf SLES 6.7“ auf

Seite 121

ii AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

Folgende wichtige Abschnitte in Unterabschnitte

unter iSCSI-Offload in Linux-Umgebungen unter-

teilt:

„Unterschiede zu bnx2i“ auf Seite 160

„Konfigurieren von qedi.ko“ auf Seite 160

„Überprüfen von iSCSI-Schnittstellen in Linux“ auf Seite 161

„Open-iSCSI und Starten über SAN – Überlegungen“ auf Seite 163

Im Verfahren

So migrieren Sie von einer

Non-Offload-Schnittstelle auf eine Offload-Schnittstelle

:

Schritt 1

in folgende Formulierung aktualisiert:

„open-iscsi-Werkzeuge und iscsiuio

auf die aktuellsten verfügbaren Versionen

durch

….aktualisieren”

Schritt 2

bearbeitet, um „(falls vorhanden)“ zum ersten Aufzählungspunkt hinzuzufügen, und letzten Aufzählungspunkt gelöscht

( rd.driver.pre=qed rd.driver.pre=qedi

anfügen)

„Und später“ zum Abschnittstitel hinzugefügt und

Schritt 18

aktualisiert.

„iSCSI-Offload in Linux-Umgebungen“ auf

Seite 159

„SLES 11 SP4 iSCSI L4 – Migration für „Booten

über SAN““ auf Seite 170

„Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4“ auf Seite 176

„Konfigurieren von Linux FCoE-Offload“ auf

Seite 189

Folgenden Hinweis hinzugefügt: „Wenn die Installation mit SLES 11 oder SLES 12 erfolgt, wird der

Parameter withfcoe=1

nicht benötigt, da der

41000 Series-Adapter den Software-FCoE-Daemon nicht mehr benötigt.“

Hinweis mit einer Beschreibung der aktuellen

Funktionalität der FCoE-Schnittstellen hinzugefügt.

„Unterschiede zwischen qedf und bnx2fc“ auf

Seite 190

Neuen Abschnitt für „FCoE – Booten über SAN“ hinzugefügt.

Veralteten Abschnitt „Überlegungen zum Starten

über SAN“ gelöscht.

„Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4“ auf Seite 192

Kapitel 10 FCoE-Konfiguration

iii AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

Im Verfahren

So konfigurieren Sie SR-IOV unter

Linux

:

In

Schritt 12

Befehl von ip link show/ifconfig -a

in ip link show | grep -i vf -b2

geändert.

Abbildung 11-12

durch neuen Screenshot ersetzt.

In

Schritt 15

Befehl von check lspci

-vv|grep -I ether

in lspci -vv|grep

-i ether

geändert.

Im Verfahren

Konfigurieren von SR-IOV unter

VMware

einige Schritte neu angeordnet:

 Schritt „Zum Validieren der VFs pro Port den

Befehl

esxcli ausführen...“ befindet sich jetzt nach dem Schritt „Füllen Sie das Dialogfeld „Edit Settings“ (Einstellungen bearbeiten) aus ...“.

 Schritt „VM hochfahren...“ befindet sich jetzt nach dem Schritt „QLogic-Treiber für die erkannten Adapter installieren...“.

Aufzählungspunkte in der Kapiteleinführung aktualisiert:

Dritter Aufzählungspunkt: „Jeder Port kann unabhängig zur Verwendung von RoCE,

RoCEv2 oder iWARP als RDMA-Protokoll, über das NVMe-oF ausgeführt wird, konfiguriert werden.“

Vierter Aufzählungspunkt: Formulierung wie folgt geändert: „Bei RoCE und RoCEv2 wurde ein optionaler Switch für Data Center Bridging

(DCB), die entsprechende Richtlinie für die Servicequalität (QoS) und vLANs konfiguriert, um die Priorität der RoCE/RoCEv2 DCB-P-Daten-

übertragungsklasse für NVMe-oF zu tragen.

Der Switch wird nicht benötigt, wenn NVMe-oF iWARP verwendet.“

„Konfigurieren von SR-IOV unter Linux“ auf

Seite 203

„Konfigurieren von SR-IOV unter VMware“ auf

Seite 210

Kapitel 12 NVMe-oF-Konfiguration mit RDMA

iv AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

Abschnitt wie folgt aktualisiert:

In der Einleitung folgenden Satz hinzugefügt:

„Gehen Sie zum Aufrüsten des Kernels auf den aktuellen Linux-Upstream-Kernel zu <URL>.“

Neuen Schritt 2

für die Neuinstallation und das

Laden des neuesten Treibers nach der BS-Kernel-Aufrüstung hinzugefügt.

In

Schritt 3 Befehl von

systemctl enable rdma

in systemctl enable rdma.service

geändert.

„Installieren von Gerätetreibern auf beiden Servern“ auf Seite 217

Aktualisierung von

Schritt 2 .

Abbildung 12-3 ersetzt.

„Konfigurieren des Zielservers“ auf Seite 218

„Konfigurieren des Initiatorservers“ auf Seite 220

„Testen der NVMe-oF-Geräte“ auf Seite 222

In

Schritt 1 den folgenden Befehl hinzugefügt:

#

yum install epel-release

Im Verfahren

So testen Sie den iWARP-Datenverkehr

nach Schritt

Schritt 3 einen Hinweis zum

Script qedr_affin.sh

hinzugefügt.

In

Tabelle B-1 weitere getestete Kabel und opti-

sche Lösungen hinzugefügt.

Weitere getestete Switches zu

Tabelle B-2 hinzu-

gefügt.

„Optimieren der Leistung“ auf Seite 224

„Getestete Kabel und optische Module“ auf

Seite 279

„Getestete Switches“ auf Seite 283

Folgende nicht mehr benötigte Abschnitt entfernt:

NPAR-Konfiguration wird nicht unterstützt, wenn SR-IOV bereits konfiguriert wurde

RoCE- und iWARP-Konfiguration wird nicht unterstützt, wenn NPAR bereits konfiguriert ist

Anhang D Einschränkungen bei Merkmalen und

Funktionen

v AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie vi AH0054602-01 F

1

2

3

Inhalt

Vorwort

Unterstützte Produkte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xviii

Zielanwender . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xviii

Inhalt dieses Handbuchs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konventionen im Dokument . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xix

xx

Rechtliche Hinweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xxii

Laser-Sicherheit – FDA-Hinweis . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xxii

Behördenzertifikat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xxiii

Störstrahlungs- und EMV-Anforderungen. . . . . . . . . . . . . . . . . .

xxiii

KCC: Klasse A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xxiv

VCCI: Klasse A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

xxiv

Konformität mit der Produktsicherheit . . . . . . . . . . . . . . . . . . . . . . . . .

xxiv

Produktübersicht

Funktionsbeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Merkmale und Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Technische Daten des Adapters. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Physische Kenndaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Standardspezifikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

3

3

1

1

Installation der Hardware

Systemanforderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Sicherheitsvorkehrungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Checkliste für die Installationsvorbereitung . . . . . . . . . . . . . . . . . . . . . . . . .

Installieren des Adapters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Treiberinstallation

Installieren der Linux-Treibersoftware . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Installieren der Linux-Treiber ohne RDMA . . . . . . . . . . . . . . . . . . . . .

Entfernen der Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Installieren der Linux-Treiber unter Verwendung der

TAR-Datei. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

14

14

4

5

6

6

8

10

10

vii AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

4

5

6

Installieren der Linux-Treiber mit RDMA . . . . . . . . . . . . . . . . . . . . . . .

Optionale Parameter für Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . .

Standardwerte für den Betrieb der Linux-Treiber . . . . . . . . . . . . . . . .

Linux-Treibermeldungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Statistikdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Installieren der Windows-Treibersoftware . . . . . . . . . . . . . . . . . . . . . . . . . .

Installieren der Windows-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Ausführen des DUP über die GUI . . . . . . . . . . . . . . . . . . . . . . .

DUP-Installationsoptionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

DUP-Installationsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Entfernen der Windows-Treiber. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Verwalten von Adaptereigenschaften . . . . . . . . . . . . . . . . . . . . . . . . .

Einstellen der Optionen zum Strommanagement . . . . . . . . . . . . . . . .

Installieren der VMware-Treibersoftware . . . . . . . . . . . . . . . . . . . . . . . . . . .

VMware-Treiber und Treiberpakete. . . . . . . . . . . . . . . . . . . . . . . . . . .

Installieren der VMware-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Optionale Parameter des VMware-Treibers . . . . . . . . . . . . . . . . . . . .

Standardeinstellungen für VMware-Treiberparameter. . . . . . . . . . . . .

Entfernen des VMware-Treibers . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Unterstützung von FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

iSCSI-Unterstützung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Aktualisieren der Firmware

Ausführen des DUP durch Doppelklicken . . . . . . . . . . . . . . . . . . . . . . . . . .

Ausführen des DUP über eine Befehlszeile . . . . . . . . . . . . . . . . . . . . . . . . .

Ausführen des DUP über die BIN-Datei . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Adapterkonfiguration vor dem Start

Erste Schritte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Anzeigen der Eigenschaften des Firmware-Abbilds. . . . . . . . . . . . . . . . . . .

Konfigurieren der Parameter auf Geräteebene . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren von NIC-Parametern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren des Data Center Bridging. . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren des FCoE-Startvorgangs . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren des iSCSI-Startvorgangs . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren von Partitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Partitionieren für VMware ESXi 6.0 und ESXi 6.5 . . . . . . . . . . . . . . . .

RoCE-Konfiguration

Unterstützte Betriebssysteme und OFED . . . . . . . . . . . . . . . . . . . . . . . . . .

Planen für RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Vorbereiten des Adapters. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

39

40

69

70

71

49

54

55

57

43

47

48

61

67

29

31

33

33

25

25

26

27

28

28

34

34

17

18

24

15

16

16

17

17

17

viii AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

7

8

Vorbereiten des Ethernet-Switches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren des Cisco Nexus 6000 Ethernet-Switches . . . . . . . . . .

Konfigurieren des Dell Z9100 Ethernet-Switches . . . . . . . . . . . . . . . .

Konfigurieren von RoCE auf dem Adapter für Windows Server. . . . . . . . . .

Anzeigen von RDMA-Zählern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren von RoCE auf dem Adapter für Linux . . . . . . . . . . . . . . . . . .

RoCE-Konfiguration für RHEL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

RoCE-Konfiguration für SLES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Überprüfen der RoCE-Konfiguration auf Linux . . . . . . . . . . . . . . . . . .

VLAN-Schnittstellen und GID-Indexwerte . . . . . . . . . . . . . . . . . . . . . .

Konfiguration von RoCE V2 für Linux . . . . . . . . . . . . . . . . . . . . . . . . .

Bestimmen des RoCE v2-GID-Indexes oder der Adresse . . . . .

Überprüfen des GID-Indexes für RoCE v1 oder RoCE v2 sowie der Adresse mithilfe der System- und

Kategorieparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Überprüfen der RoCE v1- oder RoCE v2-Funktion mithilfe der perftest-Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren von RoCE auf dem Adapter für VMware ESX . . . . . . . . . . . .

Konfigurieren von RDMA-Schnittstellen . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren von MTU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

RoCE-Modus und Statistikdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA). . . . . . . .

89

iWARP-Konfiguration

Vorbereiten des Adapters auf iWARP . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

101

Konfigurieren von iWARP unter Windows . . . . . . . . . . . . . . . . . . . . . . . . . .

102

Konfigurieren von iWARP unter Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

105

Installieren des Treibers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

106

Konfigurieren von iWARP und RoCE . . . . . . . . . . . . . . . . . . . . . . . . .

106

Erkennen des Geräts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

107

Unterstützte iWARP-Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . .

108

Ausführen des Befehls „Perftest“ für iWARP . . . . . . . . . . . . . . . . . . . .

108

Konfigurieren von NFS-RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

109

iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und

OFED 4.8

x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

111

iSER-Konfiguration

Vor dem Start . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

113

Konfigurieren von iSER für RHEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

114

Konfigurieren von iSER für SLES 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

117

Verwenden von iSER mit iWARP auf RHEL und SLES . . . . . . . . . . . . . . . .

118

90

94

94

96

96

97

84

84

85

87

72

72

73

73

77

83

88

88

ix AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

9

Optimieren der Linux-Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

120

Konfigurieren von CPUs in den Modus für die maximale Leistung . . .

120

Konfigurieren von Kernel-sysctl-Einstellungen . . . . . . . . . . . . . . . . . .

120

Konfigurieren der IRQ-Affinitätseinstellungen . . . . . . . . . . . . . . . . . . .

121

Konfigurieren der Blockgerätestaffelung . . . . . . . . . . . . . . . . . . . . . . .

121

Konfigurieren von iSER auf SLES 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

121

Vor dem Start. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

121

Konfigurieren von iSER für ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . .

122

iSCSI-Konfiguration

iSCSI-Start . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

125

Einrichten von iSCSI-Boot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

126

Auswählen des bevorzugten iSCSI-Startmodus . . . . . . . . . . . . .

126

Konfigurieren des iSCSI-Ziels . . . . . . . . . . . . . . . . . . . . . . . . . .

127

Konfigurieren der iSCSI-Bootparameter . . . . . . . . . . . . . . . . . . .

127

Adapterkonfiguration für den UEFI-Boot-Modus . . . . . . . . . . . . . . . . .

129

Konfigurieren des iSCSI-Startvorgangs . . . . . . . . . . . . . . . . . . . . . . . . . . . .

132

Konfigurieren einer statischen iSCSI-Boot-Konfiguration . . . . . . . . . .

133

Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration. . . . . . . .

141

Aktivieren der CHAP-Authentifizierung . . . . . . . . . . . . . . . . . . . . . . . .

143

Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

144

DHCP-Konfigurationen für den iSCSI-Startvorgang bei IPv4 . . . . . . .

144

DHCP Option 17, Root Path. . . . . . . . . . . . . . . . . . . . . . . . . . . .

145

DHCP Option 43, herstellerspezifische Informationen . . . . . . . .

145

Konfigurieren des DHCP-Servers . . . . . . . . . . . . . . . . . . . . . . . . . . . .

146

Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4 . . . . . . . . . . .

147

DHCPv6 Option 16, Vendor Class-Option . . . . . . . . . . . . . . . . .

147

DHCPv6 Option 17, Herstellerspezifische Informationen . . . . . .

147

Konfigurieren von VLANs für den iSCSI-Startvorgang . . . . . . . . . . . .

148

iSCSI-Offload unter Windows Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

149

Installieren der QLogic-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

150

Installieren von Microsoft iSCSI Software Initiator. . . . . . . . . . . . . . . .

150

Konfigurieren von Microsoft Initiator zur Verwendung des iSCSI

Offload von QLogic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

150

Häufig gestellte Fragen (FAQs) zu iSCSI-Offload . . . . . . . . . . . . . . . .

157

Installation von iSCSI-Boot für Windows Server 2012 R2 und 2016 . . .

158

iSCSI-Absturzspeicherabbild. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

159 iSCSI-Offload in Linux-Umgebungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

159

Unterschiede zu bnx2i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

160

Konfigurieren von qedi.ko . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

160

x AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

10

11

12

Überprüfen von iSCSI-Schnittstellen in Linux . . . . . . . . . . . . . . . . . . .

161

Open-iSCSI und Starten über SAN – Überlegungen. . . . . . . . . . . . . .

163

RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“ . . . . . . .

165

RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“ . . . .

168

SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“ . . . .

170

SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten

über SAN“. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

171

SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten

über SAN“ über MPIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

173

Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab

Version 7.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

176

FCoE-Konfiguration

FCoE – Starten über SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

180

Vorbereiten des System-BIOS auf den Aufbau und das Starten von FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

181

Definieren des BIOS-Startprotokolls . . . . . . . . . . . . . . . . . . . . . .

181

Konfigurieren des Adapter-UEFI-Startmodus . . . . . . . . . . . . . . .

181

Windows FCoE – Starten über SAN . . . . . . . . . . . . . . . . . . . . . . . . . .

186

Installation von FCoE-Boot für Windows Server 2012 R2 und 2016 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

186

Konfigurieren von FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

187

FCoE-Absturzspeicherbild . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

187

Einfügen (Slipstreaming) der Adaptertreiber in die

Windows-Imagedateien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

188

Konfigurieren von Linux FCoE-Offload. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

189

Unterschiede zwischen qedf und bnx2fc . . . . . . . . . . . . . . . . . . . . . . . . . . .

190

Konfigurieren von qedf.ko . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

190

Überprüfen von FCoE-Geräten in Linux. . . . . . . . . . . . . . . . . . . . . . . . . . . .

191

Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab

Version 7.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

192

SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Windows . . . . . . . . . . . . . . . . . . . . . . . . . .

196

Konfigurieren von SR-IOV unter Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

203

Konfigurieren von SR-IOV unter VMware . . . . . . . . . . . . . . . . . . . . . . . . . .

210

NVMe-oF-Konfiguration mit RDMA

Installieren von Gerätetreibern auf beiden Servern . . . . . . . . . . . . . . . . . . .

217

Konfigurieren des Zielservers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

218

Konfigurieren des Initiatorservers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

220

Vorbehandeln des Zielservers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

222

Testen der NVMe-oF-Geräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

222

xi AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

13

Optimieren der Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

224

.IRQ-Affinität (multi_rss-affin.sh) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

225

CPU-Intervall (cpufreq.sh) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

226

Windows Server 2016

Konfigurieren von RoCE-Schnittstellen mit Hyper-V . . . . . . . . . . . . . . . . . .

227

Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen

RDMA-NIC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

228

Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC . . . . . . . . . . .

230

Überprüfen, ob RoCE aktiviert ist . . . . . . . . . . . . . . . . . . . . . . . . . . . .

230

Hinzufügen von virtuellen Host-NICs (virtuelle Ports) . . . . . . . . . . . . .

231

Zuordnen des SMB-Laufwerks und Ausführen von

RoCE-Datenverkehr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

231

RoCE über Switch – Eingebettetes Teaming . . . . . . . . . . . . . . . . . . . . . . . .

233

Erstellen eines virtuellen Hyper-V-Switches mit SET und virtuellen

RDMA-NICs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

233

Aktivieren von RDMA auf SET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

234

Zuweisen einer VLAN-ID auf SET . . . . . . . . . . . . . . . . . . . . . . . . . . . .

234

Ausführen von RDMA-Datenverkehr auf SET . . . . . . . . . . . . . . . . . . .

234

Konfigurieren von QoS für RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

235

Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

235

Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

239

Konfigurieren von VMMQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

243

Aktivieren von VMMQ auf dem Adapter . . . . . . . . . . . . . . . . . . . . . . .

244

Festlegen des VMMQ Max QPs-Standard- und

Nicht-Standard-Ports. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

244

Erstellen eines Switches für eine virtuelle Maschine mit oder ohne

SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

245

Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine . . . .

247

Abrufen der Funktionen für den Switch der virtuellen Maschine . . . . .

247

Erstellen einer VM und Aktivieren von VMMQ auf

VM-Netzwerkadaptern in der VM . . . . . . . . . . . . . . . . . . . . . . . . . . .

248

Virtuelle Standard- und Maximum VMMQ-NIC . . . . . . . . . . . . . . . . . .

249

Aktivieren und Deaktivieren von VMMQ auf einer Verwaltungs-NIC . . .

249

Überwachen der Datenverkehrsstatistik . . . . . . . . . . . . . . . . . . . . . . .

250

Konfigurieren von VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

250

Aktivieren von VXLAN-Offload auf dem Adapter. . . . . . . . . . . . . . . . .

250

Implementieren eines Software Defined Network . . . . . . . . . . . . . . . .

251

Konfigurieren der Funktion „Direkte Speicherplätze“ . . . . . . . . . . . . . . . . . .

252

Konfigurieren der Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

252

xii AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

A

B

14

C

D

Glossar

Implementieren eines Hyper-Konvergenzsystems . . . . . . . . . . . . . . .

253

Implementieren des Betriebssystems. . . . . . . . . . . . . . . . . . . . .

253

Konfigurieren des Netzwerks . . . . . . . . . . . . . . . . . . . . . . . . . . .

253

Konfigurieren der Funktion „Direkte Speicherplätze“ . . . . . . . . .

256

Implementieren und Verwalten eines Nano-Servers . . . . . . . . . . . . . . . . . .

259

Rollen sowie Merkmale und Funktionen . . . . . . . . . . . . . . . . . . . . . . .

259

Implementieren eines Nano-Servers auf einem physischen Server. . . .

261

Implementieren eines Nano-Servers in einer virtuellen Maschine . . .

263

Verwalten eines Nano-Servers über eine Remote-Verbindung . . . . . .

265

Verwalten eines Nano-Servers über die Windows

PowerShell-Remote-Verwaltung . . . . . . . . . . . . . . . . . . . . . . .

266

Hinzufügen des Nano-Servers zu einer Liste der vertrauenswürdigen Hosts . . . . . . . . . . . . . . . . . . . . . . . . . . . .

266

Starten der Remote-Windows PowerShell-Sitzung . . . . . . . . . .

266

Verwalten von QLogic-Adaptern auf einem Windows-Nano-Server . . . .

267

RoCE-Konfiguration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

267

Fehlerbehebung

Fehlerbehebung – Checkliste. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

270

Überprüfen der geladenen Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

271

Überprüfen von Treibern in Windows . . . . . . . . . . . . . . . . . . . . . . . . .

271

Überprüfen von Treibern in Windows . . . . . . . . . . . . . . . . . . . . . . . . .

271

Überprüfen von Treibern in VMware . . . . . . . . . . . . . . . . . . . . . . . . . .

272

Testen der Netzwerkanbindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

272

Testen der Netzwerkkonnektivität für Windows . . . . . . . . . . . . . . . . . .

273

Testen der Netzwerkkonnektivität für Linux . . . . . . . . . . . . . . . . . . . . .

273

Microsoft Virtualization mit Hyper-V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

274

Linux-spezifische Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

274

Sonstige Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

274

Erfassen von Fehlerbehebungsdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

274

Adapter-LEDS

Kabel und optische Module

Unterstützte Spezifikationen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

277

Getestete Kabel und optische Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

279

Getestete Switches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

283

Dell Z9100-Switch- Konfiguration

Einschränkungen bei Merkmalen und Funktionen

xiii AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

Liste der Abbildungen

Abbildung

3-1 Dell Aktualisierungspaket-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-2 QLogic InstallShield Wizard: Begrüßungsfenster. . . . . . . . . . . . . . . . . . . . . . . . . . .

3-3 QLogic InstallShield Wizard: Lizenzvereinbarungsfenster . . . . . . . . . . . . . . . . . . . .

3-4 InstallShield Wizard: Fenster „Setup Type“ (Setup-Typ) . . . . . . . . . . . . . . . . . . . . .

3-5 InstallShield Wizard: Fenster „Custom Setup“ (Benutzerdefinierter Setup) . . . . . . .

3-6 InstallShield Wizard: Fenster „Ready to Install the Program“

(Bereit zum Installieren des Programms). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-7 InstallShield Wizard: Fenster „Completed“ (Abgeschlossen). . . . . . . . . . . . . . . . . .

3-8 Dell Aktualisierungspaket-Fenster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-9 Einstellen erweiterter Adaptereigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-10 Energieverwaltungsoptionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4-1 Dell Aktualisierungspaket: Startbildschirm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4-2 Dell Aktualisierungspaket: Laden der neuen Firmware . . . . . . . . . . . . . . . . . . . . . .

4-3 Dell Aktualisierungspaket: Installationsergebnisse . . . . . . . . . . . . . . . . . . . . . . . . .

4-4 Dell Aktualisierungspaket: Installation fertigstellen . . . . . . . . . . . . . . . . . . . . . . . . .

4-5 DUP-Befehlszeilenoptionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-1 Systemeinrichtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-2 Systemeinrichtung: Geräteeinstellungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-3 Hauptkonfigurationsseite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-4 Hauptkonfiguration (Seite), Partitionierungsmodus auf NPAR setzen . . . . . . . . . . .

5-5 Firmware-Abbild-Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-6 Konfiguration auf Geräteebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-7 NIC-Konfiguration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-8 Systemeinrichtung: DCB-Einstellungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-9 Allgemeine FCoE-Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-10 FCoE-Zielkonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-11 Allgemeine iSCSI-Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-12 iSCSI-Initiator-Konfigurationsparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-13 Erste iSCSI-Zielparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-14 Zweite iSCSI-Zielparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-15 Konfiguration der NIC-Partitionierung, Globale Bandbreitenzuordnung . . . . . . . . .

5-16 Seite für globale Bandbreitenzuordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-17 Konfiguration der Partition 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-18 Konfiguration der Partition 2: FCoE-Offload. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-19 Konfiguration der Partition 3: iSCSI-Offload. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-20 Konfiguration der Partition 4: Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6-1 Konfigurieren der RoCE-Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6-2 Dialogfeld „Add Counters“ (Zähler hinzufügen) . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6-3 Leistungsüberwachung: Cavium FastLinQ Zähler . . . . . . . . . . . . . . . . . . . . . . . . . .

6-4 Switch-Einstellungen, Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6-5 Switch-Einstellungen, Client. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6-6 Konfigurieren der RDMA_CM-Anwendungen: Server . . . . . . . . . . . . . . . . . . . . . . .

6-7 Konfigurieren der RDMA_CM-Anwendungen: Client . . . . . . . . . . . . . . . . . . . . . . . .

Seite

18

19

20

21

22

66

67

75

77

62

63

64

66

79

92

92

93

93

59

60

60

61

50

55

56

56

44

45

48

48

38

39

43

44

27

37

37

38

23

23

24

26

xiv AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

6-8 Konfigurieren eines neuen verteilten Switches . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6-9 Zuweisen eines vmknic für PVRDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

98

99

6-10 Festlegen der Firewall-Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

100

7-1 Windows PowerShell-Befehl: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . . . . . .

103

7-2 Windows PowerShell-Befehl: Get-NetOffloadGlobalSetting . . . . . . . . . . . . . . . . . .

103

7-3 Perfmon: Zähler hinzufügen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

104

7-4 Perfmon: Überprüfen des iWARP-Datenverkehrs . . . . . . . . . . . . . . . . . . . . . . . . . .

104

8-1 RDMA-Ping-Befehl erfolgreich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

115

8-2 iSER-Portal-Instanzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

115

8-3 Iface-Transport bestätigt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

116

8-4 Überprüfen auf neues iSCSI-Gerät . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

117

8-5 LIO-Zielkonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

119

9-1 Systemeinrichtung: NIC-Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

126

9-2 Systemeinrichtung: Starteinstellungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

129

9-3 Systemeinrichtung: Konfigurationsdienstprogramm für die Geräteeinstellungen . . . .

130

9-4 Auswählen der NIC-Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

131

9-5 Systemeinrichtung: NIC-Konfiguration, Boot-Protokoll . . . . . . . . . . . . . . . . . . . . . .

132

9-6 Systemeinrichtung: iSCSI-Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

133

9-7 Systemeinrichtung: Auswählen allgemeiner Parameter. . . . . . . . . . . . . . . . . . . . . .

134

9-8 Systemeinrichtung: Allgemeine iSCSI-Parameter . . . . . . . . . . . . . . . . . . . . . . . . . .

135

9-9 Systemeinrichtung: Auswählen von iSCSI Initiator-Parametern . . . . . . . . . . . . . . .

136

9-10 Systemeinrichtung: iSCSI-Initiatorparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

137

9-11 Systemeinrichtung: Auswählen der ersten iSCSI-Zielparameter . . . . . . . . . . . . . . .

138

9-12 Systemeinrichtung: Parameter für das erste iSCSI-Ziel. . . . . . . . . . . . . . . . . . . . . .

139

9-13 Systemeinrichtung: Parameter für das zweite iSCSI-Ziel . . . . . . . . . . . . . . . . . . . .

140

9-14 Systemeinrichtung: Speichern der iSCSI-Änderungen . . . . . . . . . . . . . . . . . . . . . .

141

9-15 Systemeinrichtung: Allgemeine iSCSI-Parameter . . . . . . . . . . . . . . . . . . . . . . . . . .

143

9-16 Systemeinrichtung: Allgemeine iSCSI-Parameter, VLAN-ID . . . . . . . . . . . . . . . . . .

149

9-17 Eigenschaften des iSCSI-Initiators, Konfiguration (Seite) . . . . . . . . . . . . . . . . . . . .

151

9-18 Änderung des iSCSI-Initiator-Knotennamens . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

152

9-19 iSCSI-Initiator – Zielportal ermitteln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

153

9-20 IP-Adresse für das Zielportal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

154

9-21 Auswählen der Initiator-IP-Adresse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

155

9-22 Herstellen einer Verbindung zum iSCSI-Ziel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

156

9-23 Mit Ziel verbinden – Dialogfeld. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

157

9-24 Aufforderung zur Installation des vorkonfigurierten Treibers . . . . . . . . . . . . . . . . . .

177

9-25 Konfiguration von Red Hat Enterprise Linux 7.4 . . . . . . . . . . . . . . . . . . . . . . . . . . .

178

10-1 Systemeinrichtung: Auswählen der Geräteeinstellungen. . . . . . . . . . . . . . . . . . . . .

181

10-2 Systemeinrichtung: Geräteeinstellungen, Port-Auswahl . . . . . . . . . . . . . . . . . . . . .

182

10-3 Systemeinrichtung: NIC-Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

183

10-4 Systemeinrichtung: FCoE-Modus aktiviert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

184

10-5 Systemeinrichtung: Allgemeine FCoE-Parameter . . . . . . . . . . . . . . . . . . . . . . . . . .

185

10-6 Systemeinrichtung: Allgemeine FCoE-Parameter . . . . . . . . . . . . . . . . . . . . . . . . . .

186

10-7 Aufforderung zur Installation des vorkonfigurierten Treibers . . . . . . . . . . . . . . . . . .

193

10-8 Konfiguration von Red Hat Enterprise Linux 7.4 . . . . . . . . . . . . . . . . . . . . . . . . . . .

194

xv AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

11-1 Systemeinrichtung für SR-IOV: Integrierte Geräte. . . . . . . . . . . . . . . . . . . . . . . . . .

197

11-2 Systemeinrichtung für SR-IOV: Konfiguration auf Geräteebene . . . . . . . . . . . . . . .

197

11-3 Adapter-Eigenschaften – Erweitert: SR-IOV aktivieren . . . . . . . . . . . . . . . . . . . . . .

198

11-4 Manager für virtuellen Switch: SR-IOV aktivieren . . . . . . . . . . . . . . . . . . . . . . . . . .

199

11-5 Einstellungen für VM: SR-IOV aktivieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

201

11-6 Geräte-Manager: VM mit QLogic-Adapter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

202

11-7 Windows PowerShell-Befehl: Get-NetadapterSriovVf . . . . . . . . . . . . . . . . . . . . . . .

202

11-8 Systemeinrichtung: Prozessoreinstellungen für SR-IOV . . . . . . . . . . . . . . . . . . . . .

204

11-9 Systemeinrichtung für SR-IOV: Integrierte Geräte. . . . . . . . . . . . . . . . . . . . . . . . . .

205

11-10 Bearbeiten der Datei „grub.conf“ für SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

206

11-11 Befehlsausgabe für sriov_numvfs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

207

11-12 Befehlsausgabe für den Befehl „ip link show“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

208

11-13 RHEL68 – Virtuelle Maschine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

209

11-14 Neue virtuelle Hardware hinzufügen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

210

11-15 VMware-Host – Einstellungen bearbeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

213

12-1 NVMe-oF-Netzwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

216

12-2 Subsystem-NQN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

221

12-3 NVMe-oF-Verbindung bestätigen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

221

12-4 FIO-Dienstprogramm-Installation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

222

13-1 Aktivieren von RDMA auf der virtuellen Host-NIC . . . . . . . . . . . . . . . . . . . . . . . . . .

228

13-2 Eigenschaften für den virtuellen Hyper-V-Ethernet-Adapter . . . . . . . . . . . . . . . . . .

229

13-3 Windows PowerShell-Befehl: Get-VMNetworkAdapter . . . . . . . . . . . . . . . . . . . . . .

230

13-4 Windows PowerShell-Befehl: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . . . . . .

231

13-5 Zähler hinzufügen – Dialogfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

232

13-6 Leistungsüberwachung zeigt den RoCE-Datenverkehr . . . . . . . . . . . . . . . . . . . . . .

232

13-7 Windows PowerShell-Befehl: New-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

233

13-8 Windows PowerShell-Befehl: Get-NetAdapter. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

234

13-9 Erweiterte Eigenschaften: QoS aktivieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

236

13-10 Erweiterte Eigenschaften: Einstellen der VLAN-ID . . . . . . . . . . . . . . . . . . . . . . . . .

237

13-11 Erweiterte Eigenschaften: Aktivieren von QoS . . . . . . . . . . . . . . . . . . . . . . . . . . . .

241

13-12 Erweiterte Eigenschaften: Einstellen der VLAN-ID . . . . . . . . . . . . . . . . . . . . . . . . .

242

13-13 Erweiterte Eigenschaften: Aktivieren von RSS auf dem virtuellen Switch . . . . . . . .

244

13-14 Erweiterte Eigenschaften: Festlegen von VMMQ . . . . . . . . . . . . . . . . . . . . . . . . . .

245

13-15 Manager für virtuellen Switch. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

246

13-16 Windows PowerShell-Befehl: Get-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

247

13-17 Erweiterte Eigenschaften: Aktivieren von VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . .

251

13-18 Beispiel für die Hardware-Konfiguration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

252

13-19 Windows PowerShell-Befehl: Get-NetAdapter. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

268

13-20 Windows PowerShell-Befehl: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . . . . . .

268

13-21 Windows PowerShell-Befehl: New-Item. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

268

13-22 Windows PowerShell-Befehl: New-SMBShare . . . . . . . . . . . . . . . . . . . . . . . . . . . .

269

13-23 Windows PowerShell-Befehl: Get-NetAdapterStatistics. . . . . . . . . . . . . . . . . . . . . .

269

xvi AH0054602-01 F

Benutzerhandbuch—Konvergente Netzwerkadapter

41

xxx

-Serie

Tabellenliste

Tabelle Seite

2-1 Anforderungen an die Host-Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2-2 Mindestanforderungen an das Host-Betriebssystem . . . . . . . . . . . . . . . . . . . . . . . .

3-1 QLogic Adapter der 41

xxx

-Serie Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-2 Optionale qede-Treiberparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-3 Standardwerte für den Betrieb der Linux-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-4 VMware-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-5 ESXi-Treiberpakete nach Version . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-6 Optionale Parameter des VMware-Treibers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3-7 Standardeinstellungen für VMware-Treiberparameter . . . . . . . . . . . . . . . . . . . . . . .

3-8 QLogic Adapter der 41

xxx

-Serie VMware-FCoE-Treiber . . . . . . . . . . . . . . . . . . . . .

3-9 QLogic Adapter der 41

xxx

-Serie iSCSI-Treiber . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5-1 Adaptereigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6-1 BS-Unterstützung für RoCE v1, RoCE v2, iWARP und OFED . . . . . . . . . . . . . . . .

6-2 Erweiterte Eigenschaften für RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69

74

6-3 Cavium FastLinQ RDMA Fehler-Zähler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79

9-1 Konfigurationsoptionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

128

33

34

34

46

16

28

28

31

9

16

4

5

9-2 Definitionen der Parameter von „DHCP Option 17“ . . . . . . . . . . . . . . . . . . . . . . . . .

145

9-3 Definitionen der Unteroption von DHCP Option 43 . . . . . . . . . . . . . . . . . . . . . . . . .

146

9-4 Definitionen der Unteroption für DHCP Option 17 . . . . . . . . . . . . . . . . . . . . . . . . . .

148

12-1 Zielparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

219

13-1 Rollen sowie Merkmale und Funktionen bei Nano-Servern . . . . . . . . . . . . . . . . . . .

259

14-1 Befehle zum Erfassen von Fehlerbehebungsdaten . . . . . . . . . . . . . . . . . . . . . . . . .

274

A-1 Adapter-Port – Verbindungs- und Aktivitäts-LED . . . . . . . . . . . . . . . . . . . . . . . . . . .

276

B-1 Getestete Kabel und optische Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

279

B-2 Auf Interoperabilität getestete Switches. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

283

xvii AH0054602-01 F

Vorwort

In diesem Vorwort werden die unterstützten Produkte aufgeführt, die Zielanwender definiert sowie die typografischen Konventionen in diesem Handbuch sowie die rechtlichen Hinweise beschrieben.

Unterstützte Produkte

Dieses Benutzerhandbuch beschreibt die folgenden Cavium

-Produkte:

 QL41112HFCU-DE 10 GB Converged Network Adapter, Halterung voller Höher

 QL41112HLCU-DE 10 GB Converged Network Adapter, Kleinprofil-Halterung

 QL41162HFRJ-DE 10 GB Converged Network Adapter, Halterung voller Höhe

 QL41162HLRJ-DE 10 GB Converged Network Adapter, Kleinprofil-Halterung

 QL41162HMRJ-DE 10 GB Converged Network Adapter

 QL41164HMCU-DE 10 GB Converged Network Adapter

 QL41164HMRJ-DE 10 GB Converged Network Adapter

 QL41262HFCU-DE 10/25 GB Converged Network Adapter, Halterung voller Höhe

 QL41262HLCU-DE 10/25 GB Converged Network Adapter,

Kleinprofil-Halterung

 QL41262HMCU-DE 10/25 GB Converged Network

 QL41264HMCU-DE 10/25 GB Converged Network Adapter

Zielanwender

Dieses Benutzerhandbuch richtet sich an Systemadministratoren und andere technische Mitarbeiter, die für die Konfiguration und Verwaltung von Adaptern zuständig sind, die auf Dell

®

PowerEdge

®

-Servern in Windows

®

-, Linux

®

- oder

VMware

®

-Umgebungen installiert sind.

xviii AH0054602-01 F

Vorwort

Inhalt dieses Handbuchs

Inhalt dieses Handbuchs

Im Anschluss an dieses Vorwort besteht der übrige Teil des Handbuchs aus den folgenden Kapiteln und Anhängen:

Kapitel 1 Produktübersicht enthält eine funktionale Produktbeschreibung,

eine Liste der Funktionen sowie technische Daten zum Adapter.

Kapitel 2 Installation der Hardware

beschreibt die Installation des Adapters und enthält eine Liste der Systemanforderungen sowie eine Checkliste zur

Installationsvorbereitung.

Kapitel 3 Treiberinstallation

beschreibt die Installation der Adaptertreiber unter Windows, Linux und VMware.

Kapitel 4 Aktualisieren der Firmware

beschreibt die Verwendung des Dell

Update Package (DUP) zum Aktualisieren der Adapter-Firmware.

Kapitel 5 Adapterkonfiguration vor dem Start beschreibt die

Adapterkonfigurationsaufgaben vor dem Start, die mithilfe der Human

Infrastructure Interface (HII)-Anwendung durchgeführt werden können.

Kapitel 6 RoCE-Konfiguration beschreibt die Konfiguration des Adapters,

des Ethernet-Switches und des Hosts für die Verwendung von RDMA over

Converged Ethernet (RoCE).

Kapitel 7 iWARP-Konfiguration

bietet Abläufe für die Konfiguration von iWARP (Internet Wide Area RDMA-Protokoll) auf Windows-, Linux und

VMware ESXi 6.7-Systemen.

Kapitel 8 iSER-Konfiguration

beschreibt die Konfiguration von iSCSI-Erweiterungen für RDMA (iSER) für Linux RHEL und SLES.

Kapitel 9 iSCSI-Konfiguration beschreibt den iSCSI-Start, das

iSCSI-Absturzspeicherbild sowie das iSCSI-Offload für Windows und Linux.

Kapitel 10 FCoE-Konfiguration

beschreibt den Fibre Channel over Ethernet

(FCoE)-Boot von SAN und den Boot von SAN nach der Installation.

Kapitel 11 SR-IOV-Konfiguration bietet Abläufe für die Konfiguration der

Einzelstamm-E/A-Virtualisierung (SR-IOV) auf Windows-, Linux und

VMware-Systemen.

Kapitel 12 NVMe-oF-Konfiguration mit RDMA

zeigt, wie NVMe-oF auf einem einfachen Netzwerk konfiguriert wird.

Kapitel 13 Windows Server 2016

beschreibt die unter Windows Server 2016 verfügbaren Funktionen.

Kapitel 14 Fehlerbehebung

beschreibt eine Reihe von

Fehlerbehebungsmethoden und zugehörige Ressourcen.

xix AH0054602-01 F

Vorwort

Konventionen im Dokument

Anhang A Adapter-LEDS führt die Adapter-LEDs auf und beschreibt ihre

jeweilige Bedeutung.

Anhang B Kabel und optische Module

führt die Kabel und optischen Module auf, die von Adapter der 41

xxx

-Serie unterstützt werden.

Anhang C Dell Z9100-Switch- Konfiguration

beschreibt die Konfiguration des Dell Z9100-Switch-Ports für die Verbindung mit 25 Gb/s.

Anhang D Einschränkungen bei Merkmalen und Funktionen bietet

Informationen zu den in der aktuellen Version vorhandenen Funktionsein- schränkungen.

Am Ende dieses Handbuchs befindet sich ein Glossar.

Konventionen im Dokument

In diesem Handbuch werden die folgenden Konventionen verwendet:

ANMERKUNG

bietet zusätzliche Informationen.

VORSICHT!

ohne Warnsymbol weist auf eine Gefahr hin, die die

Ausrüstung beschädigen oder zu Datenverlust führen könnte.

!

VORSICHT!

mit Warnsymbol weist auf eine Gefahr hin, die zu leichten bis mittelschweren Verletzungen führen könnte.

!

WARNUNG

weist auf eine Gefahr hin, die zu schweren Verletzungen oder zum Tod führen könnte.

 Text in blauer Schrift weist auf einen Hyperlink (eine Verknüpfung) zu einer

Abbildung, einer Tabelle oder einem Abschnitt in diesem Handbuch hin, und

Verknüpfungen zu Websites sind blau unterstrichen dargestellt. Zum

Beispiel:

 In Tabelle 9-2 sind Probleme in Hinblick auf die Benutzeroberfläche und den Remote Agent aufgeführt.

 Siehe Checkliste für die Installation auf Seite 6 .

 Weitere Informationen finden Sie auf www.cavium.com

.

Fettgedruckter

Text weist auf Elemente der Benutzeroberfläche hin, wie z. B. Menüelemente, Schaltflächen, Kontrollkästchen oder

Spaltenüberschriften. Zum Beispiel:

 Klicken Sie auf die Schaltfläche

Start

, zeigen Sie auf

Programs

(Programme), zeigen Sie auf

Accessories

(Zubehör) und klicken Sie dann auf

Command Prompt

(Eingabeaufforderung). xx AH0054602-01 F

Vorwort

Konventionen im Dokument

 Markieren Sie unter

Notification Options

(Benachrichtigungsoptionen) das Kontrollkästchen

Warning Alarms

(Warnalarme).

 Text in der Schriftart

Courier

weist auf einen Dateinamen, einen

Verzeichnispfad oder Text in der Befehlszeile hin. Zum Beispiel:

 Um von einem beliebigen Punkt in der Dateistruktur zum

Stammverzeichnis zurückzukehren, Geben Sie

cd /root

ein, und drücken Sie EINGABE.

 Geben Sie den folgenden Befehl aus:

sh ./install.bin

.

 Namen und Anschläge von Tasten sind in GROßBUCHSTABEN dargestellt:

 Drücken Sie STRG+P.

 Drücken Sie die UP ARROW (Nach Oben)-Taste.

Kursiver

Text weist auf Begriffe, Hervorhebungen, Variablen oder

Dokumententitel hin. Zum Beispiel:

 Was sind

Tastaturbefehle

?

 Geben Sie zur Eingabe des Datums

mm/tt/jjjj

ein (wobei

mm

für den

Monat,

tt

den Tag und

jjjj

das Jahr steht).

 Thementitel in Anführungszeichen weisen auf miteinander verbundene

Themen entweder innerhalb dieses Handbuchs oder in der Onlinehilfe hin, welche in diesem Dokument auch als

das Hilfesystem

bezeichnet wird.

 Es gelten u.a. die folgenden Syntaxkonventionen für die Befehle in der

Befehlszeilenschnittstelle (CLI):

 Klartext weist auf Elemente hin, die Sie wie gezeigt eingeben müssen.

Zum Beispiel:

qaucli -pr nic -ei

< >

(spitze Klammern) weisen auf eine Variable hin, deren Wert Sie angeben müssen. Zum Beispiel:

<serial_number>

ANMERKUNG

Nur für CLI-Befehle sind Variablennamen immer mittels spitzer

Klammern statt

kursiv

angegeben.

[ ]

(eckige Klammern) weisen auf einen optionalen Parameter hin.

Zum Beispiel:

[<file name>]

bedeutet, dass Sie einen Dateinamen angeben müssen oder ihn weglassen können, um den Standarddateinamen auszuwählen.

xxi AH0054602-01 F

Vorwort

Rechtliche Hinweise

|

(senkrechter Strich) weist auf sich wechselseitig ausschließende

Optionen hin; wählen Sie nur eine Option aus. Zum Beispiel:

 on|off

1|2|3|4

...

(Auslassungspunkte) weisen darauf hin, dass das vorhergehende

Element wiederholt werden kann. Zum Beispiel:

 x... bedeutet

eine

oder mehrere Instanzen von

x

.

[x...] bedeutet

null

oder mehrere Instanzen von

x

.

 Vertikale Ellipsen in der beispielhaften Befehlsausgabe zeigen an, an welcher Stelle Teile von sich wiederholenden Ausgabedaten bewusst ausgelassen wurden.

( )

(runde Klammern) und

{ }

(geschweifte Klammern) werden verwendet, um logische Unklarheiten zu vermeiden. Zum Beispiel:

 a|b c ist unklar

{(a|b) c}

bedeutet a

oder b

, gefolgt von c

.

{a|(b c)}

bedeutet entweder a

oder b c

.

Rechtliche Hinweise

Zu den rechtlichen Hinweisen in diesem Abschnitt gehören Informationen zur

Laser-Sicherheit (FDA-Hinweis), zum Behördenzertifikat sowie zur Einhaltung der

Produktsicherheit.

Laser-Sicherheit – FDA-Hinweis

Dieses Produkt entspricht den DHHS-Regelungen 21CFR Chapter I, Subchapter

J. Dieses Produkt wurde gemäß IEC60825-1 zur Sicherheitsklasse von Laser- produkten ausgelegt und hergestellt.

KLASSE I

LASERPRODUKT

Class 1

Laser Product 1

Appareil laser de classe 1

Caution

– Class 1 laser radiaton when open

Do not view directly with optical instruments

Attention

– Radiation laser de classe 1

Ne pas regarder directement avec des instruments optiques

Laserprodukt der Klasse 1

Vorsicht

– Laserstrahlung der Klasse 1 bei geöffneter Abdeckung

Direktes Ansehen mit optischen Instrumenten vermeiden

Luokan 1 Laserlaite

Varoitus

– Luokan 1 lasersäteilyä, kun laite on auki

Älä katso suoraan laitteeseen käyttämällä optisia instrumenttej xxii AH0054602-01 F

Vorwort

Rechtliche Hinweise

Behördenzertifikat

Der folgende Abschnitt fasst die EMV- und EMI-Testspezifikationen zusammen, die auf dem Adapter der 41

xxx

-Serie angewendet wurden, um den Standards für

Emissionen, Immunität und Produktsicherheit zu entsprechen.

Störstrahlungs- und EMV-Anforderungen

Konformität mit Teil 15 der FCC-Bestimmungen: Klasse A

Erklärung zur FCC-Konformität:

Dieses Gerät entspricht Abschnitt 15 der

FCC-Richtlinien. Der Betrieb unterliegt den beiden folgenden Bedingungen:

(1) Dieses Gerät darf keine Störungen verursachen. (2) Dieses Gerät muss unempfindlich gegenüber störenden Beeinflussungen, die Betriebsstörungen verursachen können, sein.

ICES-003-Konformität: Klasse A

Dieses digitale Gerät der Klasse A entspricht der Kanadischen Norm ICES-003.

Cet appareil numériqué de la classe A est conformé à la norme NMB-003 du Canada.

Konformität mit dem CE-Kennzeichen der Richtlinien 2014/30/EG und

2014/35/EU über die elektromagnetische Verträglichkeit (EMV):

EN55032:2012/ CISPR 32:2015: Klasse A

EN55024:2010

EN61000-3-2: Stromoberschwingungsgrenzwerte

EN61000-3-3: Spannungsschwankungen und Flimmern

Sicherheitsnormen

EN61000-4-2 : Prüfung der Störfestigkeit gegen die Entladung statischer Elektrizität

EN61000-4-3 : Prüfung der Störfestigkeit gegen hochfrequente elektromagnetische

Felder

EN61000-4-4 : Prüfung der Störfestigkeit gegen schnelle transiente elektrische

Störgrößen/Burst

EN61000-4-5 : Prüfung der Störfestigkeit gegen Stoßspannungen

EN61000-4-6 : Störfestigkeit gegen leitungsgeführte Störgrößen, induziert durch

hochfrequente Felder

EN61000-4-8 : Netzfrequenz Magnetfeld

EN61000-4-11 : Prüfungen der Störfestigkeit gegen Spannungseinbrüche,

Kurzzeitunterbrechungen und Spannungsschwankungen

VCCI:

2015-04, Klasse A

AS/NZS; CISPR 32:

2015, Klasse A

CNS 13438:

2006, Klasse A xxiii AH0054602-01 F

Vorwort

Rechtliche Hinweise

KCC: Klasse A

Korea-RRA-Klasse-A-zertifiziert

Produktname/Modell: Konvergente Netzwerkadapter und intelligente Ethernet-Adapter

Inhaber des Zertifikats: QLogic Corporation

Herstellungsdatum: Siehe Datumscode auf dem Produkt.

Hersteller/Ursprungsland: QLogic Corporation/USA

Ausrüstung der Klasse A

(Ausrüstung für

Unternehmen im

Bereich Information/

Telekommunikation)

Da diese Ausrüstung die EMC-Registrierung für geschäftliche Einsatzzwecke durchlaufen hat, werden

Verkäufer und/oder Käufer gebeten, dies zu beachten und im

Falle eines unrechtmäßigen Kaufs oder Verkaufs den

Verwendungsbereich in „private Einsatzzwecke“ zu ändern.

Koreanisches Sprachformat – Klasse A

VCCI: Klasse A

Dies ist ein Produkt der Klasse A nach der vom VCCI festgelegten Norm. Wenn dieses Gerät in einer häuslichen Umgebung verwendet wird, können

Funkstörungen auftreten. In diesem Fall ist der Benutzer ggf. aufgefordert,

Abhilfemaßnahmen zu ergreifen.

Konformität mit der Produktsicherheit

UL, cUL-Prüfzeichen zur Produktsicherheit

:

UL 60950-1 (2. Edition) A1 + A2, 14.10.2014

CSA C22.2 Nr.60950-1-07 (2. Edition) A1 +A2, Oktober 2014

Nur mit aufgelisteten Informationstechnologiegeräten (ITE) oder dazu

äquivalenten Geräten verwenden.

Entspricht 21 CFR 1040.10 und 1040.11, 2014/30/EU, 2014/35/EU.

xxiv AH0054602-01 F

Vorwort

Rechtliche Hinweise

2006/95/EG Niederspannungsrichtlinie

:

TÜV EN60950-1:2006+A11+A1+A12+A2, 2. Edition

TÜV IEC 60950-1: 2005, 2. Edition, Am1: 2009 + Am2: 2013 CB

CB-zertifiziert nach IEC 60950-1 2. Edition xxv AH0054602-01 F

1

Produktübersicht

Dieses Kapitel enthält die folgenden Informationen zum Adapter der 41

xxx

-Serie:

Funktionsbeschreibung

Merkmale und Funktionen

„Technische Daten des Adapters“ auf Seite 3

Funktionsbeschreibung

Die Adapter der QLogicFastLinQ

®

41000-Serie sind Converged Network-Adapter und Intelligent Ethernet-Adapter mit 10 und 25 GB, die für beschleunigte

Datennetzwerke in Serversystemen entwickelt wurden. Die Adapter der

41000er-Serie enthalten einen 10/25Gb-Ethernet-MAC mit Vollduplexfunktion.

Mithilfe der Teaming-Software des Betriebssystems können Sie Ihr Netzwerk in virtuelle LANs (VLANs) aufteilen sowie mehrere Netzwerkadapter in Teams zusammenfassen, um die Funktionen für den Netzwerk-Lastausgleich und die

Fehlertoleranz zu erhalten. Weitere Informationen zur Teaming-Funktion finden

Sie in der Dokumentation zu Ihrem Betriebssystem.

Merkmale und Funktionen

Die Adapter der 41

xxx

-Serie verfügen über folgende Merkmale und Funktionen:

Einige Merkmale und Funktionen stehen möglicherweise nicht bei allen Adaptern zur Verfügung:

 NIC-Partitionierung (NPAR)

 Single-Chip-Lösung:

 10/25GB-MAC

 SerDes-Schnittstelle für DAC-Transceiver-Verbindung (Direct

Attach Copper)

 PCIe

®

3.0 x8

 Hardware ohne Zwischenspeicherung

 Leistungsmerkmale:

 TCP-, IP-, UDP-Prüfsummen-Verschiebungen

1 AH0054602-01 F

1–Produktübersicht

Merkmale und Funktionen

 TCP Segmentation Offload (TSO)

 Large Segment Offload (Large-Send-Verschiebung, LSO)

 Generic Segment Offload (GSO)

 Large Receive Offload (LRO)

 Receive Segment Coalescing (RSC)

 Dynamische, virtuelle Microsoft

®

Maschinen-Queue (VMQ) und

Linux-Multiqueue

 Adaptive Interrupts:

 Transmit/Receive Side Scaling (TSS/RSS)

 Statuslose Offloads für die Netzwerkvirtualisierung über Generic

Routing Encapsulation (NVGRE) und getunnelten Datenverkehr über virtuelles LAN (VXLAN) L2/L3 GRE

1

 Verwaltungsfunktionen:

 System Management Bus (SMB)-Controller

Advanced Configuration and Power Interface

(ACPI, Schnittstelle für erweiterte Konfiguration und Stromversorgung) 1.1a-konform (mehrere

Strommodi)

Unterstützung für Network Controller-Sideband Interface (NC-SI)

 Erweiterte Netzwerkfunktionen:

 Jumbo-Frames (bis zu 9.600 Byte). Das Betriebssystem und der

Verbindungspartner müssen Jumbo-Frames unterstützen.

Virtuelle LANs (VLANs)

 Flusssteuerung (IEEE-Standard 802.3x)

 Logische Verbindungssteuerung (IEEE-Standard 802.2)

 High-Speed-On-Chip-Prozessoren für Rechner mit beschränktem

Befehlssatz (RISC)

 Integrierter 96-KB-Frame-Pufferspeicher (nicht für alle Modelle verfügbar)

1.024 Klassifizierungsfilter (nicht für alle Modelle verfügbar)

 Unterstützung von Multicast-Adressen über 128-Bit-Hardware-Streufunktion

 Serieller NVRAM-Flash-Speicher

PCI Power-Management-Schnittstelle

(V1.1)

1

Diese Funktion erfordert BS- oder Hypervisor-Unterstützung, damit die Offloads verwendet werden können.

2 AH0054602-01 F

1–Produktübersicht

Technische Daten des Adapters

 Unterstützung für 64-Bit-Basisadressregisters (BAR)

 Prozessorunterstützung von EM64T

 iSCSI- und FCoE-Boot-Unterstützung

2

Technische Daten des Adapters

Die technischen Daten für den Adapter der 41

xxx

-Serie umfassen die physischen

Kenndaten und die Normenkonformitätsreferenzen des Adapters.

Physische Kenndaten

Die Adapter der 41

xxx

-Serie sind Standard-PCIe-Karten, die entweder mit einer

Halterung in voller Höhe oder einer Kleinprofil-Halterung geliefert werden und in einem Standard-PCIe-Steckplatz verwendet werden können.

Standardspezifikationen

Es gelten die folgenden technischen Daten zu Standards:

PCI Express Base Specification

, Version 3.1

PCI Express Card Electromechanical Specification

, Version 3.0

PCI Bus Power Management Interface Specification

, Version 1.2

 Technische Daten zu IEEE:

802.3-2015 IEEE-Standard für Ethernet

(Datenflusssteuerung)

802.1q

(VLAN)

802.1AX

(Link Aggregation)

802.1ad

(QinQ)

802.1p

(Prioritätskodierung)

1588-2002 PTPv1

(Precision Time Protocol)

1588-2008 PTPv2

IEEE 802.3az Energy Efficient Ethernet (EEE)

 IPv4 (RFQ 791)

 IPv6 (RFC 2460)

2

Die Hardware-Unterstützungsgrenze für SR-IOV VFs kann variieren. Die Grenze kann in bestimmten BS-Umgebungen geringer sein. Weitere Informationen finden Sie im entsprechenden Abschnitt der Dokumentation zu Ihrem BS.

3 AH0054602-01 F

2

Installation der Hardware

In diesem Kapitel finden Sie die folgenden Informationen zur Hardware-Installation:

Systemanforderungen

„Sicherheitsvorkehrungen“ auf Seite 5

„Checkliste für die Installationsvorbereitung“ auf Seite 6

„Installieren des Adapters“ auf Seite 6

Systemanforderungen

Bevor Sie mit der Installation eines QLogic Adapter der 41

xxx

-Series beginnen,

stellen Sie sicher, dass Ihr System die unter Tabelle 2-1 und

Tabelle 2-2

genannten Voraussetzungen für die Hardware und das Betriebssystem erfüllt.

Eine vollständige Liste der unterstützten Betriebssysteme finden Sie auf der

Cavium-Website.

Tabelle 2-1. Anforderungen an die Host-Hardware

Hardware Anforderung

Architektur

PCIe

Speicher

Kabel und optische

Module

IA-32 oder EMT64 gemäß den Anforderungen des

Betriebssystems

PCIe Gen2 x8 (2x10G NIC)

PCIe Gen3 x8 (2x25G NIC)

Die volle Dual-Port 25-GBit-Bandbreite wird auf PCIe Gen3 x8 oder schnelleren Steckplätzen unterstützt.

(Mindestens) 8 GB RAM

Der Adapter der 41

xxx

-Serie wurde für die Interoperabilität mit einer großen Bandbreite an 1G-, 10G- und 25G-Kabeln und

optischen Modulen getestet. Siehe „Getestete Kabel und optische Module“ auf Seite 279 .

4 AH0054602-01 F

2–Installation der Hardware

Sicherheitsvorkehrungen

Tabelle 2-2. Mindestanforderungen an das Host-Betriebssystem

Betriebssystem

Windows Server

Linux

VMware

Anforderung

2012, 2012 R2, 2016 (einschließlich Nano)

RHEL

®

6.8, 6.9, 7.2, 7.3, 7.4

SLES

®

11 SP4, SLES 12 SP2, SLES 12 SP3

ESXi ab Version 6.0 u3 für 25G-Adapter

ANMERKUNG

Tabelle 2-2

führt die Mindest-Host-Betriebssystemanforderungen auf. Eine vollständige Liste der unterstützten Betriebssysteme finden Sie auf der

Cavium-Website.

Sicherheitsvorkehrungen

!

WARNUNG

Der Adapter wird in ein System installiert, dessen Betriebsspannungen tödlich sein können. Bevor Sie das Gehäuse Ihres Systems öffnen, beachten Sie die nachfolgenden Sicherheitsvorkehrungen, um sich selbst vor Gefahren zu schützen und die Beschädigung von Systemkomponenten zu vermeiden.

 Entfernen Sie alle Metallobjekte oder Schmuck von Händen und

Handgelenken.

 Stellen Sie sicher, dass Sie ausschließlich isolierte bzw. nichtleitende

Werkzeuge verwenden.

 Stellen Sie sicher, dass das System ausgeschaltet und der Netzstecker gezogen ist, bevor Sie interne Komponenten berühren.

 Installieren oder entfernen Sie Adapter in einer Umgebung, die nicht elektrostatisch aufgeladen ist. Das Tragen einer ordnungsgemäß geerdeten Erdungsmanschette am Handgelenk und die Verwendung anderer Antistatik-Geräte sowie einer antistatischen Fußmatte wird ausdrücklich empfohlen.

5 AH0054602-01 F

2–Installation der Hardware

Checkliste für die Installationsvorbereitung

Checkliste für die Installationsvorbereitung

Führen Sie vor der Installation des Adapters die folgenden Schritte aus:

1.

Überprüfen Sie, ob Ihr Server die unter „Systemanforderungen“ auf Seite 4

aufgeführten Hardware- und Software-Anforderungen erfüllt.

2.

Überprüfen Sie, ob Ihr System das neueste BIOS verwendet.

ANMERKUNG

Falls Sie die Adaptersoftware über die Website von Cavium erhalten haben, überprüfen Sie den Pfad zu den Adaptertreiberdateien.

3.

Wenn Ihr System eingeschaltet ist, fahren Sie es herunter.

4.

Wenn das System vollständig heruntergefahren ist, schalten Sie es aus, und ziehen Sie den Netzstecker.

5.

Entfernen Sie die Verpackung des Adapters und legen Sie die Karte auf einer antistatischen Oberfläche ab.

6.

Prüfen Sie den Adapter und insbesondere den Stiftsockel auf sichtbare

Anzeichen von Schäden. Installieren Sie niemals einen beschädigten Adapter.

Installieren des Adapters

Die folgenden Anweisungen gelten für die Installation der QLogic Adapter der

41

xxx

-Serie auf den meisten Systemen. Informationen zum Durchführen dieser

Aufgaben finden Sie in den Handbüchern, die Sie zusammen mit Ihrem System erhalten haben.

So installieren Sie den Adapter:

1.

Lesen Sie nochmals die Abschnitte

„Sicherheitsvorkehrungen“ auf Seite 5

und „Checkliste für die Installationsvorbereitung“ auf Seite 6

. Stellen Sie vor dem Installieren des Adapters sicher, dass das System ausgeschaltet und der Netzstecker gezogen ist, und dass entsprechende Erdungsmaßnahmen durchgeführt wurden.

2.

Öffnen Sie das Systemgehäuse und wählen Sie den Steckplatz aus, der der

Adaptergröße entspricht. Dies kann der Steckplatz PCIe Gen 2 x8 oder

PCIe Gen 3 x8 sein. Ein schmalerer Adapter kann in einen breiteren

Steckplatz gesteckt werden (x8 in einen x16), aber ein breiterer Adapter kann nicht in einen schmaleren Steckplatz gesteckt werden (x8 in einen x4).

Informationen dazu, woran Sie einen PCIe-Steckplatz erkennen, finden Sie in Ihrer Systemdokumentation.

3.

Entfernen Sie die Abdeckplatte vom ausgewählten Steckplatz.

6 AH0054602-01 F

2–Installation der Hardware

Installieren des Adapters

4.

Richten Sie die Steckerleiste des Adapters am PCIe Express-Steckplatz des

Systems aus.

5.

Drücken Sie gleichmäßig auf die beiden Ecken der Karte, und schieben

Sie die Adapterkarte in den Steckplatz, bis sie fest sitzt. Wenn der Adapter ordnungsgemäß eingesetzt wurde, sind die Port-Anschlüsse an der

Steckplatzöffnung ausgerichtet, und die Frontplatte schließt genau mit dem

Systemgehäuse ab.

VORSICHT!

Beim Einsetzen der Karte sollte nicht übermäßig viel Kraft aufgewendet werden, da dies zur Beschädigung des Systems oder des Adapters führen kann. Wenn sich der Adapter nicht einsetzen lässt, nehmen Sie ihn wieder heraus, richten Sie ihn nochmals aus, und versuchen Sie es erneut.

6.

Befestigen Sie den Adapter mit der Adapterklemme oder -schraube.

7.

Schließen Sie das Systemgehäuse und entfernen Sie Ihre Antistatikgeräte.

7 AH0054602-01 F

3

Treiberinstallation

Dieses Kapitel enthält folgende Informationen zur Treiberinstallation:

Installieren der Linux-Treibersoftware

„Installieren der Windows-Treibersoftware“ auf Seite 17

„Installieren der VMware-Treibersoftware“ auf Seite 28

Installieren der Linux-Treibersoftware

In diesem Abschnitt wird die Installation von Linux-Treibern mit und ohne RDMA

(Remote Direct Memory Access, Remote-Direktzugriffspeicher) beschrieben.

Außerdem werden die optionalen Parameter, Standardwerte, Meldungen und

Statistikdaten für Linux-Treiber erläutert.

Installieren der Linux-Treiber ohne RDMA

Installieren der Linux-Treiber mit RDMA

Optionale Parameter für Linux-Treiber

Standardwerte für den Betrieb der Linux-Treiber

Linux-Treibermeldungen

Statistikdaten

Die Adapter der 41

xxx

-Serie-Linux-Treiber und die unterstützende Dokumentation sind auf der Dell Support-Seite verfügbar: dell.support.com

Tabelle 3-1 beschreibt die Adapter der 41

xxx

-Serie-Linux-Treiber.

8 AH0054602-01 F

3–Treiberinstallation

Installieren der Linux-Treibersoftware

Linux-

Treiber

qed qede qedr qedi qedf

Tabelle 3-1. QLogic Adapter der 41xxx-Serie Linux-Treiber

Beschreibung

Das qed-Kern-Treibermodul steuert direkt die Firmware, verarbeitet Interrupts und fungiert als API auf unterer Ebene für den protokollspezifischen Treibersatz. Die qed-Schnittstellen mit den qede-, qedr-, qedi- und qedf-Treibern. Das Linux-Kernmodul verwaltet alle

PCI-Geräteressourcen (Registrierungen, Hostschnittstellen-Warteschlangen usw.).

Das qed-Kernmodul erfordert die Linux-Kernel-Version 2.6.32 oder später. Die

Testverfahren konzentrierten sich auf die x86_64-Architektur.

Linux-Ethernet-Treiber für den Adapter der 41

xxx

-Serie. Durch diesen Treiber wird die

Hardware direkt gesteuert. Er ist außerdem für das Senden und Empfangen von

Ethernet-Paketen für den Linux-Hostnetzwerk-Stack verantwortlich. Dieser Treiber empfängt und verarbeitet auch Geräte-Interrupts für sich selbst (L2-Netzwerkbetrieb).

Der qede-Treiber erfordert die Linux-Kernel-Version 2.6.32 oder später. Die Testverfahren konzentrierten sich auf die x86_64-Architektur.

Linux RDMA over Converged Ethernet (RoCE)-Treiber. Dieser Treiber arbeitet in der

OpenFabrics Enterprise Distribution (OFED™)-Umgebung in Verbindung mit dem qed-Kernmodul und dem qede-Ethernet-Treiber. Bei RDMA-Benutzerbereichsanwendungen ist es außerdem erforderlich, die libqedr-Benutzerbibliothek auf dem Server zu installieren.

LinuxiSCSI-Offload-Treiber für den Adapter der 41

xxx

-Serie. Dieser Treiber verwendet die Open iSCSI-Bibliothek.

LinuxFCoE-Offload-Treiber für Adapter der 41

xxx

-Serie. Dieser Treiber verwendet die

Open FCoE-Bibliothek.

Die Linux-Treiber können unter Verwendung eines Red Hat

®

Package Managers

(RPM) als Quelle oder eines kmod-RPM-Pakets installiert werden. Die

RHEL-RPM-Pakete sehen folgendermaßen aus: qlgc-fastlinq-<version>.<OS>.src.rpm

qlgc-fastlinq-kmp-default-<version>.<arch>.rpm

Die SLES-Quellpakete und die kmp-RPM-Pakete sehen folgendermaßen aus:

 qlgc-fastlinq-<version>.<OS>.src.rpm

qlgc-fastlinq-kmp-default-<version>.<OS>.<arch>.rpm

Mit dem folgenden RPM-Kernelmodul (kmod) werden die Linux-Treiber auf

SLES-Hosts installiert, die den XEN-Hypervisor betreiben:

 qlgc-fastlinq-kmp-xen-<version>.<OS>.<arch>.rpm

9 AH0054602-01 F

3–Treiberinstallation

Installieren der Linux-Treibersoftware

Mit dem folgenden Quell-RPM wird der RDMA-Bibliothekscode auf RHEL- und

SLES-Hosts installiert:

 qlgc-libqedr-<version>.<OS>.<arch>.src.rpm

Mit dem folgenden TAR-BZip2-Quellcode (BZ2) werden die Linux-Treiber auf

RHEL- und SLES-Hosts installiert:

 fastlinq-<version>.tar.bz2

ANMERKUNG

Für Netzwerkinstallationen über NFS, FTP oder HTTP (mithilfe einer

Netzwerk-Bootdiskette) ist unter Umständen ein Treiberdatenträger mit dem qede-Treiber erforderlich. Linux-Starttreiber können durch Modifizieren der

Steuerdatei (Makefile) und der make-Umgebung kompiliert werden.

Installieren der Linux-Treiber ohne RDMA

So installieren Sie Linux-Treiber ohne RDMA:

1.

Laden Sie die Adapter der 41

xxx

-Serie-Linux-Treiber von Dell herunter: dell.support.com

2.

Entfernen Sie die vorhandenen Linux-Treiber, wie unter „Entfernen der

Linux-Treiber“ auf Seite 10 beschrieben.

3.

Installieren Sie die neuen Linux-Treiber, indem Sie eine der folgenden

Methoden anwenden:

Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets

Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets

Installieren der Linux-Treiber unter Verwendung der TAR-Datei

Entfernen der Linux-Treiber

Es gibt zwei Verfahren zum Entfernen von Linux-Treibern: eines für eine

Nicht-RDMA-Umgebung und eines für eine RDMA-Umgebung. Wählen Sie das für Ihre Umgebung relevante Verfahren.

10 AH0054602-01 F

3–Treiberinstallation

Installieren der Linux-Treibersoftware

Um Linux-Treiber in einer Nicht-RDMA-Umgebung zu entfernen, entladen und entfernen Sie die Treiber:

Führen Sie das Verfahren aus, das sich auf das ursprüngliche Installationsverfahren und das Betriebssystem bezieht.

 Falls die Linux-Treiber unter Verwendung eines RPM-Pakets installiert wurden, führen Sie die folgenden Befehle aus:

rmmod qede rmmod qed depmod -a rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>

 Falls die Linux-Treiber unter Verwendung einer TAR-Datei installiert wurden, führen Sie die folgenden Befehle aus:

rmmod qede rmmod qed depmod -a

 Für RHEL:

cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko

 Für SLES:

cd /lib/modules/<Version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko

Gehen Sie folgendermaßen vor, um Linux-Treiber in einer

Nicht-RDMA-Umgebung zu entfernen:

1.

Führen Sie den folgenden Befehl aus, um den Pfad zu den derzeit installierten

Treibern abzurufen:

modinfo <Treibername>

2.

Entladen und entfernen Sie die Linux-Treiber.

 Falls die Linux-Treiber unter Verwendung eines RPM-Pakets installiert wurden, führen Sie die folgenden Befehle aus:

modprobe -r qede depmod -a rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>

 Falls die Linux-Treiber unter Verwendung einer TAR-Datei installiert wurden, führen Sie die folgenden Befehle aus:

modprobe -r qede depmod -a

11 AH0054602-01 F

3–Treiberinstallation

Installieren der Linux-Treibersoftware

ANMERKUNG

Wenn quedr vorhanden ist, verwenden Sie stattdessen den Befehl modprobe -r qedr

.

3.

Löschen Sie die Dateien qed.ko

, qede.ko

und qedr.ko

aus dem jeweiligen

Verzeichnis. Geben Sie beispielsweise in SLES die folgenden Befehle ein:

cd /lib/modules/

<version>

/updates/qlgc-fastlinq rm -rf qed.ko

rm -rf qede.ko

rm -rf qedr.ko

depmod -a

Gehen Sie folgendermaßen vor, um Linux-Treiber in einer RDMA-Umgebung zu entfernen:

1.

Führen Sie den folgenden Befehl aus, um den Pfad zu den installierten

Treibern abzurufen:

modinfo <Treibername>

2.

Entladen und entfernen Sie die Linux-Treiber.

modprobe -r qedr modprobe -r qede modprobe -r qed depmod -a

3.

Entfernen Sie die Treibermoduldateien:

 Falls die Treiber unter Verwendung eines RPM-Pakets installiert wurden, führen Sie den folgenden Befehl aus:

rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>

 Falls die Treiber unter Verwendung einer TAR-Datei installiert wurden, führen Sie die folgenden Befehle für Ihr jeweiliges Betriebssystem aus:

Für RHEL:

cd /lib/modules/<version>/extra/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko

Für SLES:

cd /lib/modules/<Version>/updates/qlgc-fastlinq rm -rf qed.ko qede.ko qedr.ko

12 AH0054602-01 F

3–Treiberinstallation

Installieren der Linux-Treibersoftware

Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets

So installieren Sie die Linux-Treiber unter Verwendung des src-RPM-Pakets:

1.

Führen Sie den folgenden Befehl an einer Eingabeaufforderung aus:

rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.src.rpm

2.

Wechseln Sie zum Verzeichnis des RPM-Pfads, und erstellen Sie das

Binär-RPM für den Kernel:

Für RHEL:

cd /root/rpmbuild rpmbuild -bb SPECS/fastlinq-<version>.spec

Für SLES:

cd /usr/src/packages rpmbuild -bb SPECS/fastlinq-<version>.spec

3.

Installieren Sie das neu kompilierte RPM:

rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.<arch>.rpm

ANMERKUNG

Die Option

--force

kann bei einigen Linux-Distributionen erforderlich sein, wenn Konflikte gemeldet werden.

Die Treiber werden an den folgenden Pfaden installiert.

Für SLES:

/lib/modules/<Version>/updates/qlgc-fastlinq

Für RHEL:

/lib/modules/<Version>/extra/qlgc-fastlinq

4.

Aktivieren Sie alle ethX-Schnittstellen wie folgt:

ifconfig <ethX> up

5.

Konfigurieren Sie für SLES Ihre Ethernet-Schnittstellen mit YaST so, dass sie beim Booten automatisch gestartet werden. Legen Sie dazu eine statische IP-Adresse fest oder aktivieren Sie DHCP an der Schnittstelle.

13 AH0054602-01 F

3–Treiberinstallation

Installieren der Linux-Treibersoftware

Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets

So installieren Sie das kmod-RPM-Paket:

1.

Führen Sie den folgenden Befehl an einer Eingabeaufforderung aus:

rpm -ivh qlgc-fastlinq-<version>.<arch>.rpm

2.

Laden Sie den Treiber erneut:

modprobe -r qede modprobe qede

Installieren der Linux-Treiber unter Verwendung der TAR-Datei

So installieren Sie die Linux-Treiber unter Verwendung der TAR-Datei:

1.

Erstellen Sie ein Verzeichnis, und extrahieren Sie die TAR-Dateien in dieses

Verzeichnis:

tar xjvf fastlinq-<version>.tar.bz2

2.

Wechseln Sie in das soeben erstellte Verzeichnis, und installieren Sie anschließend die Treiber:

cd fastlinq-<version> make clean; make install

Der qed- und der qede-Treiber werden an den folgenden Pfaden installiert.

Für SLES:

/lib/modules/<Version>/updates/qlgc-fastlinq

Für RHEL:

/lib/modules/<Version>/extra/qlgc-fastlinq

3.

Testen Sie die Treiber, indem Sie sie laden (entfernen Sie ggf. zuerst die vorhandenen Treiber):

rmmod qede rmmod qed modprobe qed modprobe qede

14 AH0054602-01 F

3–Treiberinstallation

Installieren der Linux-Treibersoftware

Installieren der Linux-Treiber mit RDMA

Weitere Informationen zu iWARP finden Sie unter Kapitel 7 iWARP-Konfiguration

.

Gehen Sie wie folgt vor, um die Linux-Treiber in einer Inbox-OFED-Umgebung zu installieren:

1.

Laden Sie die Adapter der 41

xxx

-Serie-Linux-Treiber von Dell herunter: dell.support.com

2.

Konfigurieren Sie RoCE auf dem Adapter, wie unter

„Konfigurieren von

RoCE auf dem Adapter für Linux“ auf Seite 83 beschrieben.

3.

Entfernen Sie vorhandene Linux-Treiber, wie unter „Entfernen der

Linux-Treiber“ auf Seite 10 beschrieben.

4.

Installieren Sie die neuen Linux-Treiber, indem Sie eine der folgenden

Methoden anwenden:

Installieren der Linux-Treiber unter Verwendung des kmp/kmod-RPM-Pakets

Installieren der Linux-Treiber unter Verwendung der TAR-Datei

5.

Installieren Sie libqedr-Bibliotheken, um mit

RDMA-Benutzerbereichsanwendungen zu arbeiten. Der libqedr-RPM ist nur für Inbox-OFED verfügbar. Sie müssen auswählen, welcher RDMA

(RoCE, RoCEv2 oder iWARP) in UEFI verwendet wird, bis die gleichzeitige

RoCE+iWARP-Funktion in der Firmware unterstützt wird. „None“ (Kein) ist standardmäßig aktiviert. Geben Sie den folgenden Befehl aus:

rpm –ivh qlgc-libqedr-<version>.<arch>.rpm

6.

Um die libqedr-Benutzerbereichsbibliothek aufzubauen und zu installieren, führen Sie den folgenden Befehl aus:

'make libqedr_install'

7.

Testen Sie die Treiber, indem Sie sie wie folgt laden:

modprobe qedr

make install_libeqdr

15 AH0054602-01 F

3–Treiberinstallation

Installieren der Linux-Treibersoftware

Optionale Parameter für Linux-Treiber

Tabelle 3-2 beschreibt die optionalen Parameter für den qede-Treiber.

debug

Parameter

int_mode gro_enable

Tabelle 3-2. Optionale qede-Treiberparameter

err_flags_override

Beschreibung

Steuert die Treiberausführlichkeitsebene ähnlich wie ethtool -s <dev> msglvl

.

Steuert einen anderen Interrupt-Modus als MSI-X.

Aktiviert oder deaktiviert die Hardware-GRO-Funktion (Generic Receive

Offload). Diese Funktion ist ähnlich wie die SW-GRO-Funktion des

Kernels, sie wird aber von der Geräte-Hardware ausgeführt.

Eine Bitmap zum Deaktivieren oder Erzwingen von Maßnahmen im Falle eines HW-Fehlers:

 Bit Nr. 31 – Aktivierungsbit für diese Bitmaske

 Bit Nr. 0 – Verhinderung der Berücksichtigung von HW-Warnungen

 Bit Nr. 1 – Erfassung von Fehlerbehebungsdaten

 Bit Nr. 2 – Auslösen eines Wiederherstellungsprozesses

 Bit Nr. 3 – WARNRUF zur Verfolgung des Datenflusses, der den Fehler ausgelöst hat

Standardwerte für den Betrieb der Linux-Treiber

Tabelle 3-3 führt die Standardwerte für den Betrieb der qed- und

qede-Linux-Treiber auf.

Tabelle 3-3. Standardwerte für den Betrieb der Linux-Treiber

Betrieb

Speed

(Geschwindigkeit)

MSI/MSI-X

Flow Control

(Flusskontrolle)

MTU

Rx Ring Size

(Rx-Ringgröße)

Tx Ring Size

(Tx-Ringgröße)

qed-Treiber,

Standardeinstellung

Automatische Verhandlung mit angekündigter Geschwindigkeit

Enabled (Aktiviert)

qede-Treiber,

Standardeinstellung

Automatische Verhandlung mit angekündigter Geschwindigkeit

Enabled (Aktiviert)

Auto-Verhandlung mit RX- und

TX-Ankündigung

1500 (Bereich von 46 bis 9600)

1000

4078 (Bereich von 128 bis 8191)

16 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

Tabelle 3-3. Standardwerte für den Betrieb der Linux-Treiber (fortgesetzt)

Betrieb

Coalesce Rx Microseconds

(Rx-Verbindung Mikrosekunden)

Coalesce Tx Microseconds

(Tx-Verbindung Mikrosekunden)

TSO

qed-Treiber,

Standardeinstellung

qede-Treiber,

Standardeinstellung

24 (Bereich von 0 bis 255)

48

Enabled (Aktiviert)

Linux-Treibermeldungen

Führen Sie einen der folgenden Befehle aus, um die Meldungsdetailebene des

Linux-Treibers einzustellen:

ethtool -s <Schnittstelle> msglvl <Wert>

modprobe qede debug=<Wert>

Hierbei steht

<value>

für die Bits 0 bis 15. Dies sind die

Netzwerkstandardwerte für Linux; die Bits ab 16 sind treiberspezifisch.

Statistikdaten

Verwenden Sie das Ethtool-Dienstprogramm, um detaillierte Statistikdaten und

Konfigurationsinformationen anzuzeigen. Weitere Informationen erhalten Sie auf der Man-Page für ethtool.

Installieren der Windows-Treibersoftware

Weitere Informationen zu iWARP finden Sie unter Kapitel 7 iWARP-Konfiguration

.

Installieren der Windows-Treiber

Entfernen der Windows-Treiber

Verwalten von Adaptereigenschaften

Einstellen der Optionen zum Strommanagement

Installieren der Windows-Treiber

Installieren Sie die Windows-Treibersoftware über das Dell Aktualisierungspaket

(DUP):

Ausführen des DUP über die GUI

17 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

DUP-Installationsoptionen

DUP-Installationsbeispiele

Ausführen des DUP über die GUI

So führen Sie das DUP auf der Benutzeroberfläche aus:

1.

Doppelklicken Sie auf das Symbol für die Datei für das Dell

Aktualisierungspaket.

ANMERKUNG

Der tatsächliche Dateiname für das Dell Aktualisierungspaket kann auch anders lauten.

2.

Klicken Sie im Fenster des Dell Aktualisierungspakets (

Abbildung 3-1 ) auf

Install

(Installieren).

Abbildung 3-1. Dell Aktualisierungspaket-Fenster

3.

Klicken Sie im Begrüßungsfenster des QLogic Super Installer — InstallShield

®

Wizard ( Abbildung 3-2 ) auf

Next

(Weiter).

18 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

Abbildung 3-2. QLogic InstallShield Wizard: Begrüßungsfenster

19 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

4.

Füllen Sie im Lizenzvereinbarungs-Fenster des Assistenten Folgendes aus

(

Abbildung 3-3 ):

a.

Lesen Sie die QLogic End User Software License Agreement

(Endbenutzer-Softwarelizenzvereinbarung).

b.

Um fortzufahren, wählen Sie

I accept the terms in the license agreement

(Ich akzeptiere die Bedingungen der Lizenzvereinbarung).

c.

Klicken Sie auf

Next

(Weiter).

Abbildung 3-3. QLogic InstallShield Wizard: Lizenzvereinbarungsfenster

20 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

5.

Schließen Sie das Fenster „Setup Type“ (Setup-Typ) ( Abbildung 3-4

) wie folgt ab: a.

Wählen Sie einen der folgenden Setup-Typen aus:

 Klicken Sie auf

Complete

(Vollständig), um alle

Programmfunktionen zu installieren.

 Klicken Sie auf

Custom

(Benutzerdefiniert), um die zu installierenden Programmfunktionen manuell auszuwählen.

b.

Klicken Sie auf

Next

(Weiter), um fortzufahren.

Falls Sie

Complete

(Vollständig) ausgewählt haben, fahren Sie direkt mit

Schritt 6b

fort.

Abbildung 3-4. InstallShield Wizard: Fenster „Setup Type“ (Setup-Typ)

6.

Wenn Sie in

Schritt 5

Custom

(Benutzerdefiniert) ausgewählt haben, schließen Sie das Fenster „Custom Setup“ (Benutzerdefinierter Setup)

(

Abbildung 3-5 ) wie folgt aus:

a.

Wählen Sie die zu installierenden Funktionen aus. Alle Funktionen sind standardmäßig ausgewählt. Um eine zu installierende

Funktionseinstellung zu ändern, klicken Sie auf das Symbol daneben und führen dann eine der folgenden Optionen aus:

This feature will be installed on the local hard drive

(Diese

Funktion wird auf dem lokalen Festplattenlaufwerk installiert) –

Markiert die Funktion zur Installation, jedoch ohne ihre untergeordneten Funktionen.

21 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

This feature, and all subfeatures, will be installed on the local hard drive

(Diese Funktion und ihre untergeordneten

Funktionen werden auf dem lokalen Festplattenlaufwerk installiert) – Markiert die Funktion mit all ihren untergeordneten

Funktionen zur Installation.

This feature will not be available

(Diese Funktion steht nicht zur Verfügung) – Verhindert die Installation der Funktion.

b.

Klicken Sie auf

Next

(Weiter), um fortzufahren.

Abbildung 3-5. InstallShield Wizard: Fenster „Custom Setup“

(Benutzerdefinierter Setup)

7.

Klicken Sie im Fenster „Ready To Install“ (Bereit zum Installieren) des

InstallShield Wizard (

Abbildung 3-6 ) auf

Install

(Installieren). Der

InstallShield Wizard installiert das Installationsprogramm für die QLogic

Adapter-Treiber und die Verwaltungssoftware.

22 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

Abbildung 3-6. InstallShield Wizard: Fenster „Ready to Install the Program“

(Bereit zum Installieren des Programms)

8.

Wenn die Installation abgeschlossen ist, zeigt der InstallShield-Assistent das

Dialogfeld „Completed“ (Abgeschlossen) an (

Abbildung 3-7

). Klicken Sie auf

Finish

(Fertigstellen), um das Installationsprogramm zu beenden.

Abbildung 3-7. InstallShield Wizard: Fenster „Completed“ (Abgeschlossen)

23 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

9.

Im Fenster des Dell Aktualisierungspakets (

Abbildung 3-8 ) weist die Meldung

„Update installer operation was successful“ (Aktualisierung des

Installationsprogramms war erfolgreich) auf den Abschluss des Vorgangs hin.

 (Optional) Klicken Sie zum Öffnen der Protokolldatei auf

Installationsprotokoll anzeigen

. Die Protokolldatei zeigt den

Fortschritt der DUP-Installation, jede vorhergehend installierte Version, jede Fehlermeldung und andere Informationen über die Installation an.

 Klicken Sie zum Schließen des Aktualisierungspaket-Fensters auf

SCHLIESSEN

.

Abbildung 3-8. Dell Aktualisierungspaket-Fenster

DUP-Installationsoptionen

Um das Verhalten der DUP-Installation anzupassen, verwenden Sie die folgenden

Befehlszeilenoptionen.

 So extrahieren Sie nur die Treiberkomponenten in ein Verzeichnis:

/drivers=<Pfad>

ANMERKUNG

Dieser Befehl erfordert die Option

/s

.

 So installieren oder aktualisieren Sie nur die Treiberkomponenten:

/driveronly

ANMERKUNG

Dieser Befehl erfordert die Option

/s

.

24 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

 (Erweitert) Mit der Option

/passthrough

wird sämtlicher Text nach der

Option

/passthrough

direkt an die QLogic-Installationssoftware des DUP gesendet. In diesem Modus werden alle angegebenen GUIs unterdrückt, jedoch nicht zwangsweise die der QLogic-Software.

/passthrough

 (Erweitert) So können Sie eine kodierte Beschreibung der von diesem DUP unterstützten Funktionen ausgeben:

/capabilities

ANMERKUNG

Dieser Befehl erfordert die Option

/s

.

DUP-Installationsbeispiele

Die folgenden Beispiele erläutern die Verwendung der Installationsoptionen.

So führen Sie eine Aktualisierung des Systems im Hintergrund durch:

<DUP_Dateiname>.exe /s

So extrahieren Sie den Aktualisierungsinhalt in das Verzeichnis

C:\mydir\

:

<DUP_Dateiname>.exe /s /e=C:\mydir

So extrahieren Sie die Treiberkomponenten in das Verzeichnis

C:\mydir\

:

<DUP_Dateiname>.exe /s /drivers=C:\mydir

So installieren Sie nur die Treiberkomponenten:

<DUP_Dateiname>.exe /s /driveronly

So wechseln Sie vom Standardprotokollspeicherort zu

C:\Mein Pfad mit

Leerzeichen\log.txt

:

<DUP_Dateiname>.exe /l="C:\my path with spaces\log.txt"

Entfernen der Windows-Treiber

Gehen Sie wie folgt vor, um die Windows-Treiber zu entfernen:

1.

Klicken Sie in der Systemsteuerung auf

Programs

(Programme) und dann auf

Programs and Features

(Programme und Funktionen).

2.

Wählen Sie in der Liste der Programme

QLogic FastLinQ Driver Installer

(QLogic FastLinQ-Treiberinstallationsprogramm) aus und klicken Sie anschließend auf

Uninstall

(Deinstallieren).

3.

Folgen Sie den Anweisungen zum Entfernen der Treiber.

25 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

Verwalten von Adaptereigenschaften

Gehen Sie wie folgt vor, um die Adapter der 41

xxx

-Serie-Eigenschaften anzuzeigen oder zu ändern:

1.

Wechseln Sie in die Systemsteuerung und klicken Sie auf

Device Manager

(Geräte-Manager).

2.

Klicken Sie in den Eigenschaften des ausgewählten Adapters auf die

Registerkarte

Erweitert

.

3.

Wählen Sie auf der Seite „Advanced“ (Erweitert) ( Abbildung 3-9 ) unter

Property

(Eigenschaft) ein Element aus und ändern Sie dann den

Wert

für dieses Element nach Bedarf.

Abbildung 3-9. Einstellen erweiterter Adaptereigenschaften

26 AH0054602-01 F

3–Treiberinstallation

Installieren der Windows-Treibersoftware

Einstellen der Optionen zum Strommanagement

Sie können die Optionen zum Strommanagement so einstellen, dass das

Betriebssystem den Controller abschalten kann, um Energie zu sparen, bzw. dass der Controller den Computer reaktivieren kann. Wenn das Gerät gerade beschäftigt ist (z. B. mit der Abwicklung einer Verbindung), schaltet das

Betriebssystem das Gerät nicht ab. Das Betriebssystem versucht nur dann, alle möglichen Geräte herunterzufahren, wenn der Computer in den Ruhezustand wechseln will. Wenn der Controller jederzeit eingeschaltet bleiben soll, aktivieren

Sie nicht das Kontrollkästchen

Allow the computer to turn off the device to save power

(Computer kann Gerät ausschalten, um Energie zu sparen)

( Abbildung 3-10

).

Abbildung 3-10. Energieverwaltungsoptionen

ANMERKUNG

 Die Seite „Power Management“ (Energieverwaltung) ist nur bei Servern verfügbar, die Energieverwaltung unterstützen.

 Aktivieren Sie für keinen Adapter, der Mitglied eines Teams ist, das

Kontrollkästchen

Allow the computer to turn off this device to save power

(Computer kann Gerät ausschalten, um Energie zu sparen).

27 AH0054602-01 F

3–Treiberinstallation

Installieren der VMware-Treibersoftware

Installieren der VMware-Treibersoftware

In diesem Abschnitt wird der qedentv-VMware ESXi-Treiber für den Adapter der

41

xxx

-Serie beschrieben:

VMware-Treiber und Treiberpakete

Installieren der VMware-Treiber

Optionale Parameter des VMware-Treibers

Standardeinstellungen für VMware-Treiberparameter

Entfernen des VMware-Treibers

Unterstützung von FCoE

iSCSI-Unterstützung

VMware-Treiber und Treiberpakete

Tabelle 3-4 listet die VMware ESXi-Treiber für die Protokolle auf.

Tabelle 3-4. VMware-Treiber

VMware-Treiber Beschreibung

qedentv qedrntv qedf qedil

Nativer Netzwerktreiber

Nativer RDMA-Offload (RoCE und RoCEv2)-Treiber

a

NativFCoE-Offload-Treiber

VorgängeriSCSI-Offload-Treiber a

Der zertifizierte RoCE-Treiber ist in dieser Version nicht enthalten. Der zertifizierte Treiber ist möglicherweise in einer frühen Vorschau enthalten.

Die ESXi-Treiber sind als einzelne Treiberpakete enthalten und, wenn nicht anders angegeben, nicht als Pakete gebündelt.

Tabelle 3-5 führt die

ESXi-Versionen und die anwendbaren Treiberversionen auf.

Tabelle 3-5. ESXi-Treiberpakete nach Version

ESXi-Versiona

a

ESXi 6.5

b

Protokoll

NIC

FCoE iSCSI

RoCE

Treibername Treiberversion

qedentv qedf qedil qedrntv

3.0.7.5

1.2.24.0

1.0.19.0

3.0.7.5.1

28 AH0054602-01 F

3–Treiberinstallation

Installieren der VMware-Treibersoftware

Tabelle 3-5. ESXi-Treiberpakete nach Version (fortgesetzt)

ESXi-Versiona

a

Protokoll Treibername Treiberversion

ESXi 6.0u3

NIC

FCoE iSCSI qedentv qedf qedil

2.0.7.5

1.2.24.0

1.0.19.0

a

Weitere ESXi-Treiber werden möglicherweise nach der Veröffentlichung des

Benutzerhandbuchs verfügbar. Weitere Informationen finden Sie in den

Versionshinweisen.

b

Bei ESXi 6.5 wurden die NIC- und RoCE-Treiber zu einem Paket zusammengefasst und können mithilfe standardmäßiger ESXi-Installationsbefehle als ein Offline-Paket installiert werden. Der Dateiname des Pakets lautet

qedentv_3.0.7.5_qedrntv_3.0.7.5.1_signed_drivers.zip

. Es wird empfohlen, die folgende Installationsreihenfolge einzuhalten: zunächst die NIC- und RoCE-Treiber, gefolgt von den FCoE- und iSCSI-Treibern.

Installieren Sie einzelne Treiber über:

Standardbefehle für die ESXi-Paketinstallation (siehe Installieren der

VMware-Treiber

)

 Verfahren in den einzelnen Infodateien für die einzelnen Treiber

 Verfahren im folgenden Artikel der VMware KB: https://kb.vmware.com/selfservice/microsites/search.do?language=en_US& cmd=displayKC&externalId=2137853

Es wird empfohlen, zunächst den NIC-Treiber zu installieren, gefolgt von den

Speichertreibern.

Installieren der VMware-Treiber

Sie können mit der Treiber-ZIP-Datei einen neuen Treiber installieren oder einen vorhandenen Treiber aktualisieren. Achten Sie darauf, den kompletten Treibersatz aus ein und derselben Treiber-ZIP-Datei zu installieren. Das Mischen von Treibern aus unterschiedlichen ZIP-Dateien führt zu Problemen.

Gehen Sie wie folgt vor, um den VMware-Treiber zu installieren:

1.

Laden Sie den VMware-Treiber für Adapter der 41

xxx

-Serie von der

VMware-Support-Seite herunter: www.vmware.com/support.html

2.

Schalten Sie den ESX-Host ein, und melden Sie sich mit

Administratorberechtigung an einem Konto an.

29 AH0054602-01 F

3–Treiberinstallation

Installieren der VMware-Treibersoftware

3.

Dekomprimieren Sie die Treiber-ZIP-Datei und extrahieren Sie die

.vib

-Datei.

4.

Verwenden Sie das Linux-SCP-Dienstprogramm zum Kopieren einer

.vib

-Datei von einem lokalen System in das Verzeichnis

/tmp

auf einem

ESX-Server mit der IP-Adresse 10.10.10.10. Führen Sie beispielsweise den folgenden Befehl aus:

#

scp qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib [email protected]:/tmp

Sie können die Datei an jedem Speicherort ablegen, auf den die

ESX-Konsolen-Shell Zugriff hat.

ANMERKUNG

Wenn Sie nicht über ein Linux-System verfügen, können Sie den vSphere-Datenspeicher-Browser verwenden, um Dateien auf den

Server hochzuladen.

5.

Setzen Sie den Host in den Wartungsmodus, indem Sie den folgenden

Befehl eingeben:

#esxcli --maintenance-mode

6.

Wählen Sie eine der folgenden Installationsoptionen aus:

Option 1:

Installieren Sie

.vib

-Datei direkt auf einen ESX-Server über die Befehlszeilenschnittstelle (CLI) oder den VMware Update Manager

(VUM):

 Führen Sie für die Installation der

.vib

-Datei über die

Befehlszeilenschnittstelle (CLI) den folgenden Befehl aus. Achten

Sie darauf, den vollständigen Pfad der

.vib

-Datei anzugeben.

#

esxcli software vib install -v

/tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib

 Weitere Informationen zur Installation der

.vib

-Datei über VUM finden Sie im folgenden Artikel in der Wissensdatenbank:

Updating an ESXi/ESX host using VMware vCenter Update

Manager 4.x and 5.x (1019545)

Option 2:

Installieren Sie alle einzelnen VIBs gleichzeitig, indem Sie den folgenden Befehl ausführen:

#

esxcli software vib install –d

/tmp/qedentv-bundle-2.0.3.zip

30 AH0054602-01 F

3–Treiberinstallation

Installieren der VMware-Treibersoftware

Gehen Sie wie folgt vor, um einen vorhandenen Treiber zu aktualisieren:

Führen Sie die folgenden Schritte für eine neue Installation aus, ersetzen Sie dabei allerdings den Befehl in der vorherigen Option 1 durch den folgenden Befehl:

#

esxcli software vib update -v

/tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib

Optionale Parameter des VMware-Treibers

Tabelle 3-6 beschreibt die optionalen Parameter, die als Befehlszeilenargumente

zum Befehl esxcfg-module

hinzugefügt werden können.

Tabelle 3-6. Optionale Parameter des VMware-Treibers

Parameter

hw_vlan num_queues multi_rx_filters disable_tpa max_vfs

Beschreibung

Aktiviert (

1

) oder deaktiviert (

0

) global das Einfügen und Entfernen des

Hardware-VLAN. Deaktivieren Sie diesen Parameter, wenn die obere

Schicht vollständig formatierte Pakete senden oder empfangen soll. hw_vlan=1

ist der Standardwert.

Gibt die Anzahl der Tx/Rx-Warteschlangenpaare an. num_queues

kann einen Wert zwischen

1–11

oder einen der folgenden Werte annehmen:

–1

ermöglicht dem Treiber die Bestimmung der optimalen Anzahl von

Warteschlangenpaaren (Standardeinstellung).

0

verwendet die Standardwarteschlange.

Für Konfigurationen mit mehreren Ports oder Funktionen können Sie mehrere kommagetrennte Werte angeben.

Gibt die Anzahl der RX-Filter pro RX-Warteschlange an, ohne

Standardwarteschlange. multi_rx_filters

kann

1–4

oder einer der folgenden Werte sein:

–1

verwendet die Standardanzahl an Rx-Filtern pro Warteschlange.

0

deaktiviert die Rx-Filter.

Aktiviert (

0

) oder deaktiviert (

1

) die TPA (LRO)-Funktion. disable_tpa=0 ist der Standardwert.

Gibt die Anzahl der virtuellen Funktionen (VFs) pro physischer Funktion (PF) an. max_vfs

kann

0

(deaktiviert) oder

64

VFs auf einem einzelnen Port

(aktiviert) sein. Die maximale Unterstützung von 64 VFs für ESXi beruht auf einer Beschränkung bei der BS-Ressourcenzuweisung.

31 AH0054602-01 F

3–Treiberinstallation

Installieren der VMware-Treibersoftware

Tabelle 3-6. Optionale Parameter des VMware-Treibers (fortgesetzt)

Parameter Beschreibung

RSS debug

Der RSS-Parameter legt die Anzahl der empfangsseitigen

Skalierungswarteschlangen fest, die vom Host oder dem virtuellen, erweiterbaren LAN (VxLAN)-Tunnel-Datenverkehr für eine PF verwendet werden.

RSS

kann den Wert

2

,

3

,

4

oder einen der folgenden Werte annehmen:

–1

verwendet die Standardanzahl an Warteschlangen.

0

oder

1

deaktiviert RSS-Warteschlangen.

Für Konfigurationen mit mehreren Ports oder Funktionen können Sie mehrere kommagetrennte Werte angeben.

Gibt die Datenebene an, die der Treiber in der vmkernel

-Protokolldatei erfasst. debug

kann die folgenden Werte annehmen (die angegebene

Reihenfolge entspricht einer ansteigenden Datenmenge):

0x80000000

gibt die Hinweisebene an.

0x40000000

gibt die Informationsebene (einschließlich der

Hinweisebene) an.

0x3FFFFFFF

gibt eine ausführliche Ebene für alle Treiberuntermodule

(einschließlich Informations- und Hinweisebene) an.

auto_fw_reset vxlan_filter_en

Aktiviert (

1

) oder deaktiviert (

0

) die Fähigkeit des Treibers zur automatischen Firmware-Wiederherstellung. Wenn dieser Parameter aktiviert ist, versucht der Treiber, nach bestimmten Ereignissen eine

Wiederherstellung durchzuführen, z. B. nach einem Übertragungs-Timeout,

Firmware-Durchsetzungen oder Adapterparitätsfehlern. Die

Standardeinstellung ist auto_fw_reset=1

.

Aktiviert (

1

) oder deaktiviert (

0

) die VXLAN-Filterung basierend auf der

äußeren MAC, der inneren MAC und dem VXLAN-Netzwerk (VNI) und ordnet den Datenverkehr einer bestimmten Warteschlange zu. Die

Standardeinstellung ist vxlan_filter_en=1

. Für Konfigurationen mit mehreren Ports oder Funktionen können Sie mehrere kommagetrennte

Werte angeben.

enable_vxlan_offld

Aktiviert (

1

) oder deaktiviert (

0

) den Prüfsummen-Offload für den getunnelten

VXLAN-Datenverkehr und die TCP-Segmentierungsabladefunktion (TSO).

Die Standardeinstellung ist enable_vxlan_offld=1

. Für Konfigurationen mit mehreren Ports oder Funktionen können Sie mehrere kommagetrennte

Werte angeben.

32 AH0054602-01 F

3–Treiberinstallation

Installieren der VMware-Treibersoftware

Standardeinstellungen für VMware-Treiberparameter

Tabelle 3-7 führt die Standardwerte der Parameter für VMware-Treiber auf.

Tabelle 3-7. Standardeinstellungen für VMware-Treiberparameter

Parameter

Geschwindigkeit

Flow Control

(Flusskontrolle)

MTU

Rx Ring Size

(Rx-Ringgröße)

Tx Ring Size

(Tx-Ringgröße)

MSI-X

Transmit Send Offload

(TSO)

Large Receive Offload

(LRO)

RSS

HW VLAN

Number of Queues

(Anzahl der Warteschlangen)

Wake on LAN (WoL)

Standardeinstellung

Die automatische Aushandlung wird für alle

Übertragungsraten angekündigt. Die

Geschwindigkeitsparameter müssen auf allen Ports identisch sein. Wenn „auto-negotiation“ (Automatische

Aushandlung) auf dem Gerät aktiviert ist, verwenden alle Geräteports die automatische Aushandlung.

Die automatische Aushandlung wird für RX und TX angekündigt.

1.500

(Bereich

46–9.600

)

8.192

(Bereich

128-8.192

)

8.192

(Bereich

128-8.192

)

Enabled

(Aktiviert)

Enabled

(Aktiviert)

Enabled

(Aktiviert)

Enabled

(vier RX-Warteschlangen)

Enabled

(Aktiviert)

Enabled

(acht RX/TX-Warteschlangenpaare)

Disabled

(Deaktiviert)

Entfernen des VMware-Treibers

Um die

.vib

-Datei (qedentv) zu entfernen, führen Sie den folgenden

Befehl aus:

#

esxcli software vib remove --vibname qedentv

33 AH0054602-01 F

3–Treiberinstallation

Installieren der VMware-Treibersoftware

Um den Treiber zu entfernen, führen Sie den folgenden Befehl aus:

#

vmkload_mod -u qedentv

Unterstützung von FCoE

Tabelle 3-8 beschreibt den Treiber, der im VMware-Software-Paket für die

Unterstützung der QLogic FCoE Converged Netzwerkschnittstellen-Controller

(C-NICs) enthalten ist. Die FCoE und DCB-Funktionen werden unter VMware

ESXi 5.0 und höheren Versionen unterstützt.

Tabelle 3-8. QLogic Adapter der 41xxx-Serie VMware-FCoE-Treiber

qedf

Treiber Beschreibung

Der QLogic VMware FCoE-Treiber ist ein Kernel-Modustreiber, mit dem eine Übersetzungsschicht zwischen dem VMware SCSI-Stapel und der QLogic FCoE-Firmware und -Hardware eingefügt wird.

iSCSI-Unterstützung

Tabelle 3-9 beschreibt den iSCSI-Treiber.

Tabelle 3-9. QLogic Adapter der 41xxx-Serie iSCSI-Treiber

qedil

Treiber Beschreibung

Der qedil-Treiber ist der QLogic VMware iSCSI HBA-Treiber. Ähnlich wie bei qedf ist qedil ein Treiber im Kernelmodus, der eine

Übersetzungsschicht zwischen dem VMware SCSI-Stapel und der

QLogic iSCSI-Firmware und -Hardware einfügt. qedil nutzt die

Dienste, die von der VMware-ISCSID-Infrastruktur für die

Sitzungsverwaltung und für IP-Dienste bereitgestellt werden.

34 AH0054602-01 F

3–Treiberinstallation

Installieren der VMware-Treibersoftware

35 AH0054602-01 F

4

Aktualisieren der Firmware

Dieses Kapitel bietet Informationen zum Aktualisieren der Firmware über das Dell

Aktualisierungspaket (DUP).

Das Firmware-DUP (Dell Update Package) ist ein reines Dienstprogramm zur

Aktualisierung des Flash-Speichers (es wird nicht für die Adapterkonfiguration verwendet). Doppelklicken Sie zum Ausführen des Firmware-DUP auf die ausführbare Datei. Alternativ können Sie das Firmware-DUP über die Befehlszeile mit verschiedenen unterstützten Befehlszeilenoptionen ausführen.

Ausführen des DUP durch Doppelklicken

„Ausführen des DUP über eine Befehlszeile“ auf Seite 39

„Ausführen des DUP über die BIN-Datei“ auf Seite 40 (nur Linux)

Ausführen des DUP durch Doppelklicken

Um das Firmware-DUP auszuführen, doppelklicken Sie auf die ausführbare Datei:

1.

Doppelklicken Sie auf das Symbol für die Datei des Dell

Firmware-Aktualisierungspakets.

Der Startbildschirm für das Dell Aktualisierungspaket wird angezeigt, wie in

Abbildung 4-1

dargestellt. Klicken Sie auf

Install

(Installieren), um fortzufahren.

36 AH0054602-01 F

4–Aktualisieren der Firmware

Ausführen des DUP durch Doppelklicken

Abbildung 4-1. Dell Aktualisierungspaket: Startbildschirm

2.

Befolgen Sie die Anweisungen auf dem Bildschirm. Wenn ein Dialogfeld mit einer Warnung angezeigt wird, klicken Sie auf

Yes

(Ja), um mit der

Installation fortzufahren.

Das Installationsprogramm weist darauf hin, dass die neue Firmware geladen wird, wie in

Abbildung 4-2 dargestellt.

Abbildung 4-2. Dell Aktualisierungspaket: Laden der neuen Firmware

37 AH0054602-01 F

4–Aktualisieren der Firmware

Ausführen des DUP durch Doppelklicken

Nach Abschluss des Vorgangs zeigt das Installationsprogramm das

Ergebnis der Installation an, wie in

Abbildung 4-3 dargestellt.

Abbildung 4-3. Dell Aktualisierungspaket: Installationsergebnisse

3.

Klicken Sie auf

Yes

(Ja), um das System neu zu starten.

4.

Klicken Sie auf

Finish

(Fertigstellen), um die Installation abzuschließen,

wie in Abbildung 4-4 dargestellt.

Abbildung 4-4. Dell Aktualisierungspaket: Installation fertigstellen

38 AH0054602-01 F

4–Aktualisieren der Firmware

Ausführen des DUP über eine Befehlszeile

Ausführen des DUP über eine Befehlszeile

Das Ausführen des Firmware-DUP über die Befehlszeile ohne Angabe weiterer

Optionen führt zu demselben Ergebnis wie das Doppelklicken auf das

DUP-Symbol. Der tatsächliche Dateiname für das DUP kann auch anders lauten.

Gehen Sie wie folgt vor, um das Firmware-DUP über eine Befehlszeile auszuführen:

 Geben Sie den folgenden Befehl aus:

C:\>

Network_Firmware_2T12N_WN32_<Version>_X16.EXE

Abbildung 4-5 zeigt die Optionen, die Sie zum Anpassen der Installation über das

Dell Aktualisierungspaket verwenden können.

Abbildung 4-5. DUP-Befehlszeilenoptionen

39 AH0054602-01 F

4–Aktualisieren der Firmware

Ausführen des DUP über die BIN-Datei

Ausführen des DUP über die BIN-Datei

Das folgende Verfahren wird nur auf dem Linux-Betriebssystem unterstützt.

Gehen Sie wie folgt vor, um das DUP über die BIN-Datei zu aktualisieren:

1.

Kopieren Sie die Datei

Network_Firmware_NJCX1_LN_X.Y.Z.BIN

auf das zu testende System.

2.

Ändern Sie den Dateityp wie folgt in eine ausführbare Datei:

chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN

3.

Um den Aktualisierungsprozess zu starten, geben Sie den folgenden

Befehl ein:

./Network_Firmware_NJCX1_LN_X.Y.Z.BIN

4.

Starten Sie nach der Aktualisierung der Firmware das System neu.

Beispiel für eine SUT-Ausgabe während der DUP-Aktualisierung:

./Network_Firmware_NJCX1_LN_08.07.26.BIN

Collecting inventory...

Running validation...

BCM57810 10 Gigabit Ethernet rev 10 (p2p1)

The version of this Update Package is the same as the currently installed version.

Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)

Package version: 08.07.26

Installed version: 08.07.26

BCM57810 10 Gigabit Ethernet rev 10 (p2p2)

The version of this Update Package is the same as the currently installed version.

Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)

Package version: 08.07.26

Installed version: 08.07.26

Continue? Y/N:

Y

Y entered; update was forced by user

Executing update...

WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE

IS IN PROGRESS.

THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE!

...........................................................................

Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)

Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)

Update success.

40 AH0054602-01 F

4–Aktualisieren der Firmware

Ausführen des DUP über die BIN-Datei

Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)

Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)

Update success.

Would you like to reboot your system now?

Continue? Y/N:

Y

41 AH0054602-01 F

5

Adapterkonfiguration vor dem Start

Während des Host-Startvorgangs haben Sie die Möglichkeit, Adapterverwaltungs- aufgaben unter Verwendung der HII-Anwendung (Human Infrastructure Interface) anzuhalten und durchzuführen. Dazu gehören folgende Aufgaben:

„Erste Schritte“ auf Seite 43

„Anzeigen der Eigenschaften des Firmware-Abbilds“ auf Seite 47

„Konfigurieren der Parameter auf Geräteebene“ auf Seite 48

„Konfigurieren von NIC-Parametern“ auf Seite 49

„Konfigurieren des Data Center Bridging“ auf Seite 54

„Konfigurieren des FCoE-Startvorgangs“ auf Seite 55

„Konfigurieren des iSCSI-Startvorgangs“ auf Seite 57

„Konfigurieren von Partitionen“ auf Seite 61

ANMERKUNG

Die HII-Bildschirmaufnahmen in diesem Kapitel dienen lediglich der

Illustration. Die Bildschirme, die auf Ihrem System angezeigt werden, sehen möglicherweise anders aus.

42 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Erste Schritte

Erste Schritte

Gehen Sie wie folgt vor, um die HII-Anwendung zu starten:

1.

Öffnen Sie das System-Setup-Fenster für Ihre Plattform. Informationen zum

Starten des System-Setup-Programms finden Sie im Benutzerhandbuch zu

Ihrem System.

2.

Wählen Sie im Fenster „System Setup“ (Systemeinrichtung) (

Abbildung 5-1

)

Device Settings

(Geräteeinstellungen) und drücken Sie dann auf ENTER

(Eingabe).

Abbildung 5-1. Systemeinrichtung

43 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Erste Schritte

3.

Wählen Sie im Fenster „Device Settings“ (Geräteeinstellungen)

(

Abbildung 5-2 ) den Adapter der 41

xxx

-Serie-Port aus, den Sie konfigurieren möchten. Drücken Sie anschließend auf ENTER (Eingabe).

Abbildung 5-2. Systemeinrichtung: Geräteeinstellungen

Auf der Seite „Main Configuration“ (Hauptkonfiguration) (

Abbildung 5-3

) werden die Adapterverwaltungsoptionen dargestellt, mit denen Sie den

Partitionierungsmodus festlegen können.

Abbildung 5-3. Hauptkonfigurationsseite

44 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Erste Schritte

4.

Legen Sie unter

Device Level Configuration

(Konfiguration auf

Geräteebene) die Option für

Partitioning Mode

(Partitionierungsmodus) auf

NPAR

, um die Option

NIC Partitioning Configuration

(Konfiguration der

NIC-Partitionierung) zur Seite „Main Configuration“ (Hauptkonfiguration)

hinzuzufügen, wie unter Abbildung 5-4 dargestellt.

ANMERKUNG

NPAR ist auf Ports mit einer maximalen Geschwindigkeit von 1 G nicht verfügbar.

Abbildung 5-4. Hauptkonfiguration (Seite), Partitionierungsmodus auf

NPAR setzen

Auf der Seite „Main Configuration“ (Hauptkonfiguration) in

Abbildung 5-3 und

Abbildung 5-4 wird Folgendes angezeigt:

Firmware Image Properties

(Firmware-Abbildeigenschaften), (siehe

„Anzeigen der Eigenschaften des Firmware-Abbilds“ auf Seite 47 )

Device Level Configuration

(Konfiguration auf Geräteebene), (siehe

„Konfigurieren der Parameter auf Geräteebene“ auf Seite 48

)

NIC Configuration

(NIC-Konfiguration), (siehe

„Konfigurieren von

NIC-Parametern“ auf Seite 49

)

iSCSI Configuration

(iSCSI-Konfiguration) (wenn der iSCSI-Remote-Boot durch das Aktivierung des iSCSI-Offload im NPAR-Modus auf der dritten

Port-Partition zulässig ist) (siehe „Konfigurieren des iSCSI-Startvorgangs“ auf Seite 57

)

FCoEConfiguration

(FCoE-Konfiguration) (wenn der FCoE-Boot über SAN durch das Aktivierung des FCoE-Offload im NPAR-Modus auf der zweiten

Port-Partition zulässig ist) (siehe „Konfigurieren des FCoE-Startvorgangs“ auf Seite 55

)

 Data Center Bridging (DCB) Settings (DCB-Einstellungen) (siehe

„Konfigurieren des Data Center Bridging“ auf Seite 54

)

45 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Erste Schritte

NIC Partitioning Configuration

(Konfiguration der NIC-Partitionierung)

(falls

NPAR

auf der Seite „Device Level Configuration“ (Konfiguration auf

Geräteebene) ausgewählt wird) (siehe „Konfigurieren von Partitionen“ auf

Seite 61 )

Zusätzlich werden auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Adaptereigenschaften angezeigt, wie in

Tabelle 5-1 dargestellt.

Adaptereigenschaft

Device Name

(Gerätename)

Chip Type (Chip-Typ)

PCI Device ID

(PCI-Geräte-ID)

PCI Address

(PCI-Adresse)

Blink LEDs

(LED-Blinkfunktion)

Link Status

(Verbindungsstatus)

MAC Address

(MAC-Adresse)

Virtual MAC Address

(Virtuelle MAC-Adresse) iSCSI MAC-Adresse

a

Tabelle 5-1. Adaptereigenschaften

Beschreibung

Der vom Werk zugewiesene Gerätename.

ASIC-Version

Eindeutige, herstellerspezifische PCI-Geräte-ID

PCI-Geräteadresse im Busgerät-Funktionsformat.

Benutzerdefinierte Blinkhäufigkeit für die Port-LED.

Der externe Verbindungsstatus.

Vom Hersteller zugewiesene, dauerhafte

Geräte-MAC-Adresse.

Benutzerdefinierte Geräte-MAC-Adresse

Vom Hersteller zugewiesene, dauerhafte iSCSI-Offload-MAC-Adresse.

Benutzerdefinierte Geräte-iSCSI-Offload-MAC-Adresse iSCSI Virtual MAC

Address (Virtuelle iSCSI-MAC-Adresse)

a

FCoE MAC Address

(FCoE-MAC-Adresse)

b

FCoE Virtual MAC

Address (Virtuelle

FCoE-MAC-Adresse)

b

FCoE WWPN

b

Vom Hersteller zugewiesene, dauerhafte

FCoE-Offload-MAC-Adresse.

Benutzerdefinierte Geräte-FCoE-Offload-MAC-Adresse

Vom Hersteller zugewiesener dauerhafter

Geräte-FCoE-Offload-WWPN (World-Wide-Port-Name)

46 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Anzeigen der Eigenschaften des Firmware-Abbilds

Tabelle 5-1. Adaptereigenschaften (fortgesetzt)

Adaptereigenschaft Beschreibung

FCoE Virtual WWPN

(Virtueller FCoE-WWPN)

b

Benutzerdefinierter Geräte-FCoE-Offload-WWPN

FCoE WWNN

b

Vom Hersteller zugewiesener dauerhafter

Geräte-FCoE-Offload-WWNN (World-Wide-Knotenname)

Benutzerdefinierter Geräte-FCoE-Offload-WWNN FCoE Virtual WWNN

(Virtueller FCoE-WWNN)

b

a

Diese Eigenschaft wird nur angezeigt, wenn

iSCSI Offload

(iSCSI-Offload) auf der Seite „NIC

Partitioning Configuration“ (Konfiguration der NIC-Partitionierung) aktiviert ist.

b

Diese Eigenschaft wird nur angezeigt, wenn

FCoE Offload

(FCoE-Offload) auf der Seite „NIC

Partitioning Configuration“ (Konfiguration der NIC-Partitionierung) aktiviert ist.

Anzeigen der Eigenschaften des

Firmware-Abbilds

Um die Eigenschaften des Firmware-Abbilds anzuzeigen, wählen Sie

Firmware

Image Properties

(Firmware-Abbild-Eigenschaften) auf der Seite „Main

Configuration“ (Hauptkonfiguration) aus und drücken dann auf die EINGABETASTE.

Die Seite „Firmware Image Properties“ (Firmware-Abbild-Eigenschaften)

( Abbildung 5-5

) enthält die folgenden schreibgeschützten Daten:

Family Firmware Version

(Familien-Firmware-Version) ist die

Mehrstart-Abbild-Version, die aus mehreren

Firmware-Komponenten-Abbildern besteht.

MBI Version

(MBI-Version) ist die gebündelte Cavium QLogic-Abbildversion, die auf dem Gerät aktiv ist.

Controller BIOS Version

(Controller-BIOS-Version) ist die

Verwaltungs-Firmware-Version.

EFI Driver Version

(EFI-Treiberversion) ist die Treiberversion für die erweiterbare Firmware-Schnittstelle.

L2B Firmware Version

(L2B-Firmware-Version) ist die

NIC-Offload-Firmware-Version für den Start.

47 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren der Parameter auf Geräteebene

Abbildung 5-5. Firmware-Abbild-Eigenschaften

Konfigurieren der Parameter auf Geräteebene

ANMERKUNG

Die physischen iSCSI-Funktionen (PFs) werden als Aufzählung dargestellt, wenn die iSCSI-Offload-Funktion nur im NPAR-Modus aktiviert ist. Die

FCoE-PFs werden als Aufzählung dargestellt, wenn die

FCoE-Offload-Funktion nur im NPAR-Modus aktiviert ist. Nicht alle

Adaptermodelle unterstützen iSCSI-Offload und FCoE-Offload. Pro Port kann nur ein Offload und dies nur im NPAR-Modus aktiviert werden.

Die Konfiguration auf Geräteebene umfasst die folgenden Parameter:

Virtualisierungsmodus

NPAREP-Modus

So konfigurieren Sie die Parameter auf Geräteebene:

1.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Option

Device Level Configuration

(Konfiguration auf Geräteebene) (siehe

Abbildung 5-3 auf Seite 44

) aus und drücken dann auf die EINGABETASTE.

2.

Wählen Sie auf der Seite

Device Level Configuration

(Konfiguration auf

Geräteebene) Werte für die Parameter auf Geräteebene aus (siehe

Abbildung 5-6

).

Abbildung 5-6. Konfiguration auf Geräteebene

48 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von NIC-Parametern

ANMERKUNG

Die Adapter QL41264HMCU-DE (Teilenummer 5V6Y4) und

QL41264HMRJ-DE (Teilenummer 0D1WT) zeigen Support für NPAR,

SR-IOV und NPAR-EP in der Konfiguration auf Geräteebene, obwohl diese Funktionen auf den 1-Gbps-Ports 3 und 4 nicht unterstützt werden.

3.

Wählen Sie für

Virtualization Mode

(Virtualisierungsmodus) einen der folgenden Modi aus, der auf alle Adapter-Ports angewendet werden kann:

None

(„Kein“, Standardwert) legt fest, dass kein Virtualisierungsmodus aktiviert wurde.

NPAR

versetzt den Adapter in den Switch-unabhängigen

NIC-Partitionierungsmodus.

SR-IOV

versetzt den Adapter in den SR-IOV-Modus.

NPar + SR-IOV

versetzt den Adapter in den Modus „SR-IOV over

NPAR“ (SR-IOV über NPAR).

4.

NParEP Mode

(NParEP-Modus) konfiguriert die maximale Anzahl an

Partitionen pro Adapter. Dieser Parameter wird angezeigt, wenn Sie entweder

NPAR

oder

NPar + SR-IOV

als

Virtualization Mode

(Virtualisierungsmodus) in Schritt 2 auswählen.

 Mit der Option

Enabled

(Aktiviert) können Sie bis zu 16 Partitionen pro

Adapter konfigurieren.

 Mit der Option

Disabled

(Deaktiviert) können Sie bis zu 8 Partitionen pro Adapter konfigurieren.

5.

Klicken Sie auf

Back

(Zurück).

6.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

Konfigurieren von NIC-Parametern

Die NIC-Konfiguration umfasst das Einstellen der folgenden Parameter:

Übertragungsrate

NIC- und RDMA-Modus

RDMA Protocol Support

(RDMA-Protokoll-Unterstützung)

Boot-Modus

FEC-Modus

Energieeffizientes Ethernet

Virtueller LAN-Modus

Virtuelle LAN-ID

49 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von NIC-Parametern

So konfigurieren Sie NIC-Parameter:

1.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Option

NIC Configuration

(NIC-Konfiguration) ( Abbildung 5-3 auf Seite 44

) und drücken dann auf

Finish

(Fertigstellen).

Abbildung 5-7

zeigt die Seite „NIC Configuration“ (NIC-Konfiguration).

Abbildung 5-7. NIC-Konfiguration

2.

Wählen Sie eine der folgenden Optionen für

Link Speed

(Verbindungsgeschwindigkeit) für den ausgewählten Port. Nicht alle

Geschwindigkeitsoptionen sind auf allen Adaptern verfügbar.

Auto Negotiated

(Automatisch verhandelt) aktiviert den Modus „Auto

Negotiation“ (Auto-Verhandlung) auf dem Port. Die Modusauswahl

„FEC“ ist für diese Geschwindigkeitsoption nicht verfügbar.

1 Gbps

aktiviert den festen 1 GbE-Geschwindigkeitsmodus auf dem

Port. Dieser Modus ist ausschließlich für 1GbE-Schnittstellen bestimmt und sollte nicht für Adapterschnittstellen konfiguriert werden, die bei anderen Geschwindigkeiten betrieben werden. Die Modusauswahl

„FEC“ ist für diese Geschwindigkeitsoption nicht verfügbar. Diese

Option ist nicht auf allen Adaptern verfügbar.

10 Gbps

aktiviert den festen 10 GbE-Geschwindigkeitsmodus auf dem

Port. Diese Option ist nicht auf allen Adaptern verfügbar.

25 Gbps

aktiviert den festen 25 GbE-Geschwindigkeitsmodus auf dem

Port. Diese Option ist nicht auf allen Adaptern verfügbar.

50 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von NIC-Parametern

SmartAN

(Standardwert) aktiviert den FastLinQ

SmartAN

-Verbindungsgeschwindigkeitsmodus auf dem Port. Für diese Geschwindigkeitsoption ist keine FEC-Modusauswahl verfügbar.

Die Einstellung

SmartAN

durchläuft alle möglichen

Verbindungsgeschwindigkeiten und FEC-Modi, bis eine Verbindung aufgebaut wurde. Dieser Modus ist ausschließlich für

25G-Schnittstellen bestimmt. Wenn Sie SmartAN für eine

10GB-Schnittstelle konfigurieren, wird das System Einstellungen für eine 10 G-Schnittstelle anwenden. Dieser Modus ist nicht für alle

Adapter verfügbar.

3.

Beim

Modus NIC + RDMA

wählen Sie entweder

Enabled

(Aktiviert) oder

Disabled

(Deaktiviert) für RDMA auf dem Port aus. Diese Einstellung gilt für alle Partitionen für den Port, falls der NPAR-Modus aktiv ist.

4.

FEC Mode

(FEC-Modus) wird angezeigt, wenn der Modus mit einer festen

Geschwindigkeit von

25 Gbps

als

Link Speed

(Verbindungsgeschwindigkeit) in

Schritt 2 ausgewählt ist. Wählen Sie als

FEC Mode

(FEC-Modus) eine der folgenden Optionen aus. Nicht alle FEC-Modi sind auf allen Adaptern verfügbar.

None

(Kein) deaktiviert alle FEC-Modi.

Fire Code

(Fire-Code) aktiviert den Fire Code (BASE-R) FEC-Modus.

Reed Solomon

(Reed-Solomon-Code) aktiviert den

Reed-Solomon-FEC-Modus.

Auto

(Automatisch) aktiviert den Port zum Durchlaufen der FEC-Modi

None

(Kein),

Fire Code

(Fire-Code) und

Reed Solomon

(Reed-Solomon, bei dieser Verbindungsgeschwindigkeit) nach einem

Rundlauf-Verfahren, bis eine Verbindung aufgebaut wurde.

5.

Die Einstellung

RDMA Protocol Support

(RDMA-Protokoll-Unterstützung) gilt für alle Partitionen des Ports, wenn es sich um den NPAR-Modus handelt. Diese Einstellung wird angezeigt, wenn der

Modus NIC + RDMA

in

Schritt 3 auf

Enabled

(Aktiviert) gesetzt ist. Die Optionen für

RDMA

Protocol Support

(RDMA-Protokoll-Unterstützung) umfassen Folgendes:

RoCE

aktiviert den RoCE-Modus auf diesem Port.

iWARP

aktiviert den iWARP-Modus auf diesem Port.

iWARP + RoCE

aktivieren die iWARP- und RoCE-Modi auf diesem

Port. Dies ist die Standardeinstellung. Für diese Option sind in Linux weitere Konfigurationsschritte erforderlich. Siehe

„Konfigurieren von iWARP und RoCE“ auf Seite 106

.

6.

Wählen Sie für

Boot Mode

(Boot-Modus) einen der folgenden Werte aus:

PXE

aktiviert den PXE-Boot.

51 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von NIC-Parametern

FCoE

aktiviert den FCoE-Boot über SAN über den

Hardware-Offload-Pfad. Der Modus

FCoE

ist nur verfügbar, wenn die

Option

FCoE Offload

(FCoE-Offload) auf der zweiten Partition im

NPAR-Modus aktiviert ist (siehe

„Konfigurieren von Partitionen“ auf

Seite 61

).

iSCSI

aktiviert den iSCSI-Remote-Boot über den

Hardware-Offload-Pfad. Der Modus

iSCSI

ist nur verfügbar, wenn die

Option

iSCSI Offload

(iSCSI-Offload) auf der dritten Partition im

NPAR-Modus aktiviert ist (siehe

„Konfigurieren von Partitionen“ auf

Seite 61

).

Disabled

(Deaktiviert) verhindert, dass dieser Port als

Remote-Boot-Quelle verwendet wird.

7.

Der Parameter

Energy Efficient Ethernet

(Energieeffizientes Ethernet, EEE) ist nur auf 100BASE-T- oder 10GBASE-T RJ45-Schnittstellenadaptern sichtbar. Wählen Sie aus den folgenden EEE-Optionen aus:

Disabled

(Deaktiviert) deaktiviert EEE auf diesem Port.

Optimal Power and Performance

(Optimale Energieversorgung und

Leistung) aktiviert EEE im optimalen Energieversorgungs- und

Leistungsmodus auf diesem Port.

Maximum Power Savings

(Maximale Energieeinsparungen) aktiviert

EEE im maximalen Energiesparmodus auf diesem Port.

Maximum Performance

(Maximale Leistung) aktiviert EEE im maximalen Leistungsmodus auf diesem Port.

8.

Der Parameter

Virtual LAN Mode

(Virtueller LAN-Modus) gilt für den gesamten Port, wenn er sich im PXE-Remote-Installationsmodus befindet.

Er wird nicht aufrecht erhalten, nachdem eine PXE-Remote-Installation abgeschlossen ist. Wählen Sie aus den folgenden VLAN-Optionen aus:

Enabled

(Aktiviert) aktiviert den VLAN-Modus auf diesem Port für den

PXE-Remote-Installationsmodus.

Disabled

(Deaktiviert) deaktiviert den VLAN-Modus auf diesem Port.

9.

Der Parameter

Virtual LAN ID

(Virtuelle LAN-ID) definiert die VLAN-Tag-ID, die auf diesem Port für den PXE-Remote-Installationsmodus verwendet werden soll. Diese Einstellung gilt nur, wenn

Virtual LAN Mode

(Virtueller

LAN-Modus) im vorherigen Schritt aktiviert wurde.

10. Klicken Sie auf

Back

(Zurück).

11.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

52 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von NIC-Parametern

So konfigurieren Sie den Port zur Verwendung von RDMA:

ANMERKUNG

Führen Sie die folgenden Schritte aus, um RDMA auf allen Partitionen eines

Ports im NPAR-Modus zu aktivieren.

1.

Setzen Sie

NIC + RDMA Mode

(NIC- + RDMA-Modus) auf

Enabled

(Aktiviert).

2.

Klicken Sie auf

Back

(Zurück).

3.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

So konfigurieren Sie den Boot-Modus des Ports:

1.

Wählen Sie bei einer UEFI PXE-Remote-Installation

PXE

als

Boot Mode

(Boot-Modus) aus.

2.

Klicken Sie auf

Back

(Zurück).

3.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

So konfigurieren Sie die PXE-Remote-Installation des Ports zur Verwendung eines VLAN:

ANMERKUNG

Dieses VLAN wird nicht aufrecht erhalten, nachdem die

PXE-Remote-Installation abgeschlossen ist.

1.

Setzen Sie das Feld

Virtual LAN Mode

(Modus für virtuelles LAN) auf

Enabled

(Aktiviert).

2.

Geben Sie im Feld

Virtual LAN ID

(Virtuelle LAN-ID) die zu verwendende

Nummer ein.

3.

Klicken Sie auf

Back

(Zurück).

4.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

53 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren des Data Center Bridging

Konfigurieren des Data Center Bridging

Die Einstellungen für Data Center Bridging (DCB) umfassen das DCBX-Protokoll und die RoCE-Priorität.

So konfigurieren Sie die DCB-Einstellungen:

1.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration,

Abbildung 5-3 auf Seite 44 )

Data Center Bridging (DCB) Settings

(DCB-Einstellungen) aus und klicken Sie anschließend auf

Finish

(Fertigstellen).

2.

Wählen Sie auf der Seite „Data Center Bridging (DCB) Settings“

(DBC-Einstellungen, Abbildung 5-8

) die entsprechende Option

DCBX

Protocol

(DCBX-Protokoll) aus:

Disabled

(Deaktiviert) deaktiviert DCBX auf diesem Port.

CEE

aktiviert den DCBX-Modus für das Legacy-CEE (Converged

Enhanced Ethernet)-Protokoll auf diesem Port.

IEEE

aktiviert das IEEE-DCBX-Protokoll auf diesem Port.

Dynamic

(Dynamisch) aktiviert die dynamische Anwendung des CEE- oder IEEE-Protokolls für den Abgleich mit dem angeschlossenen

Verbindungspartner.

3.

Geben Sie im Fenster „Data Center Bridging (DCB) Settings“

(DCB-Einstellungen) in das Feld

RoCE v1 Priority

(RoCE v1-Priorität) einen

Wert zwischen

0-7

ein. Diese Einstellung zeigt die Klassenprioritätsnummer für den DCB-Datenverkehr an, die für den RoCE-Datenverkehr verwendet wird. Sie muss mit der Zahl übereinstimmen, die durch das DCB-aktivierte

Switching-Netzwerk für den RoCE-Datenverkehr verwendet wird.

0

steht für die gewöhnliche Prioritätsnummer, die durch die verlustbehaftete Standard- oder die allgemeine Datenverkehrsklasse verwendet wird.

3

steht für die Prioritätsnummer, die durch den verlustfreien

FCoE-Datenverkehr verwendet wird.

4

steht für die Prioritätsnummer, die durch den verlustfreien iSCSI-TLV over DCB-Datenverkehr verwendet wird.

1

,

2

,

5

,

6

und

7

stehen für DCB-Datenverkehrsklassenprioritätsnummern, die für die Verwendung von RoCE verfügbar sind. Folgen Sie den entsprechenden Anweisungen zum Einrichten von BS-RoCE, um diese

RoCE-Option zu verwenden.

54 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren des FCoE-Startvorgangs

Abbildung 5-8. Systemeinrichtung: DCB-Einstellungen

4.

Klicken Sie auf

Back

(Zurück).

5.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

ANMERKUNG

Wenn DCBX aktiviert ist, sendet der Adapter regelmäßig

Verbindungsschichterkennungsprotokoll-Pakete, also so genannte

LLDP-Pakete, mit einer speziellen Unicastadresse. Diese Unicastadresse dient als Quell-MAC-Adresse. Diese LLDP-MAC-Adresse unterscheidet sich von der werkseitig zugewiesenen Adapter-Ethernet-MAC-Adresse. Wenn

Sie sich die MAC-Adresstabelle für den Switch-Port, der mit dem Adapter verbunden ist, etwas genauer anschauen, werden Sie sehen, dass zwei

MAC-Adressen aufgeführt sind: eine für LLDP-Pakete und eine für die

Adapter-Ethernet-Schnittstelle.

Konfigurieren des FCoE-Startvorgangs

ANMERKUNG

Das Menü „FCoE Boot Configuration“ (FCoE-Boot-Konfiguration) wird nur angezeigt, wenn der

Modus FCoE Offload

(FCoE-Offload) auf der zweiten

Partition im NPAR-Modus aktiviert ist (siehe Abbildung 5-18 auf Seite 66 ).

Im Nicht-NPAR-Modus wird dieses Menü nicht angezeigt.

So konfigurieren Sie die FCoE-Start-Konfigurationsparameter:

1.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Option

FCoE Configuration

(FCoE-Konfiguration) und wählen Sie dann eine der folgenden Optionen aus:

FCoE General Parameters

(Allgemeine FCoE-Parameter)

( Abbildung 5-9

)

FCoE Target Configuration

(FCoE-Zielkonfiguration)

( Abbildung 5-10

)

55 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren des FCoE-Startvorgangs

2.

Drücken Sie ENTER (Eingabe).

3.

Wählen Sie Werte für die allgemeinen FCoE- oder die

FCoE-Ziel-Konfigurationsparameter aus.

Abbildung 5-9. Allgemeine FCoE-Parameter

Abbildung 5-10. FCoE-Zielkonfiguration

4.

Klicken Sie auf

Back

(Zurück).

5.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

56 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren des iSCSI-Startvorgangs

Konfigurieren des iSCSI-Startvorgangs

ANMERKUNG

Das Menü „iSCSI Boot Configuration“ (iSCSI-Boot-Konfiguration) wird nur angezeigt, wenn der Modus

iSCSI Offload

(iSCSI-Offload) auf der dritten

Partition im NPAR-Modus aktiviert ist (siehe Abbildung 5-19 auf Seite 66 ).

Im Nicht-NPAR-Modus wird dieses Menü nicht angezeigt.

So konfigurieren Sie die iSCSI-Start-Konfigurationsparameter:

1.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Option

iSCSI Boot Configuration Menu

(iSCSI-Start-Konfigurationsmenü) aus und wählen Sie dann eine der folgenden Optionen aus:

iSCSI General Configuration

(Allgemeine iSCSI-Konfiguration)

iSCSI Initiator Configuration

(iSCSI-Initiatorkonfiguration)

iSCSI First Target Configuration

(Erste iSCSI-Zielkonfiguration)

iSCSI Second Target Configuration

(Zweite iSCSI-Zielkonfiguration)

2.

Drücken Sie ENTER (Eingabe).

3.

Wählen Sie Werte für die entsprechenden iSCSI-Konfigurationsparameter aus:

iSCSI General Parameters

(Allgemeine iSCSI-Parameter)

( Abbildung 5-11 auf Seite 59 )

 TCP/IP Parameters Via DHCP (TCP/IP-Parameter über DHCP)

 iSCSI Parameters Via DHCP (iSCSI-Parameter über DHCP)

 CHAP-Authentifizierung

 Gegenseitige CHAP-Authentifizierung

 IP-Version

 ARP Redirect (ARP-Umleitung)

 DHCP Request Timeout (Zeitüberschreitung der

DHCP-Anforderung)

 Target Login Timeout (Zielanmeldezeitüberschreitung)

 DHCP Vendor ID

iSCSI Initiator Parameters

(iSCSI-Initiatorparameter)

( Abbildung 5-12 auf Seite 60 )

 IPv4-Adresse

 IPv4-Subnetzmaske

 IPv4 Standard-Gateway

 Primärer IPv4-DNS

 Sekundärer IPv4-DNS

 VLAN-ID

 iSCSI-Name:

 CHAP ID (CHAP-ID)

57 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren des iSCSI-Startvorgangs

 CHAP Secret (CHAP-Geheimschlüssel)

iSCSI First Target Parameters

(Erste iSCSI-Zielparameter)

( Abbildung 5-13 auf Seite 60 )

 Connect (Verbinden).

 IPv4-Adresse

 TCP-Port

 Boot-LUN

 iSCSI-Name:

 CHAP ID (CHAP-ID)

 CHAP Secret (CHAP-Geheimschlüssel)

iSCSI Second Target Parameters

(Zweite iSCSI-Zielparameter)

( Abbildung 5-14 auf Seite 61 )

 Connect (Verbinden).

 IPv4-Adresse

 TCP-Port

 Boot-LUN

 iSCSI-Name:

 CHAP ID (CHAP-ID)

 CHAP Secret (CHAP-Geheimschlüssel)

4.

Klicken Sie auf

Back

(Zurück).

58 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren des iSCSI-Startvorgangs

5.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

Abbildung 5-11. Allgemeine iSCSI-Parameter

59 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren des iSCSI-Startvorgangs

Abbildung 5-12. iSCSI-Initiator-Konfigurationsparameter

Abbildung 5-13. Erste iSCSI-Zielparameter

60 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von Partitionen

Abbildung 5-14. Zweite iSCSI-Zielparameter

Konfigurieren von Partitionen

Sie können Bandbreitenbereiche für jede Partition auf dem Adapter konfigurieren.

Spezifische Informationen zur Partitionskonfiguration auf VMware ESXi 6.0/6.5 finden Sie unter

Partitionieren für VMware ESXi 6.0 und ESXi 6.5

.

So konfigurieren Sie die maximalen und minimalen

Bandbreitenzuordnungen:

1.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Option

NIC Partitioning Configuration

(Konfiguration der

NIC-Partitionierung) aus und drücken dann auf die EINGABETASTE.

2.

Wählen Sie auf der Seite „Partitions Configuration“ (Partitionskonfiguration)

(

Abbildung 5-15 ) die Option

Global Bandwidth Allocation

(Globale

Bandbreitenzuordnung) aus.

61 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von Partitionen

Abbildung 5-15. Konfiguration der NIC-Partitionierung, Globale

Bandbreitenzuordnung

3.

Klicken Sie auf der Seite „Global Bandwidth Allocation“ (Globale

Bandbreitenzuordnung) (

Abbildung 5-16 ) für jede Partition, deren

Bandbreite Sie zuordnen möchten, in das Feld für die minimale und maximale Übertragungsbandbreite. Es gibt acht Partitionen pro Port im

Dual-Port-Modus.

62 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von Partitionen

Abbildung 5-16. Seite für globale Bandbreitenzuordnung

Partition

n

Minimum TX Bandwidth

(Mindestbandbreite der Partition n für die Übertragung (TX)) ist die Mindestbandbreite der ausgewählten

Partition für die Übertragung, angegeben als Prozentsatz der maximalen

Verbindungsgeschwindigkeit des physischen Ports. Gültige Werte reichen von

0

bis

100

. Wenn der DCBX ETS-Modus aktiviert ist, wird der

Wert der DCBX ETS-Mindestbandbreite je Datenverkehrsklasse gleichzeitig mit dem Wert der TX-Mindestbandbreite der Partition verwendet. Die Summe aller TX-Mindestbandbreitenwerte aller

Partitionen auf einem einzelnen Port muss entweder 100 betragen oder alle Werte müssen null sein.

Wenn man die Werte für die TX-Bandbreite vollständig auf null setzt, ist dies vergleichbar damit, wenn man die verfügbare Bandbreite auf jede aktive Partition gleichmäßig verteilt. Die Bandbreite wird jedoch dynamisch allen aktiv sendenden Partitionen zugeordnet. Ein Null-Wert

(wenn mindestens einer der anderen Werte auf einen Nicht-Null-Wert gesetzt ist) ordnet mindestens ein Prozent dieser Partition zu, wenn die

TX-Bandbreite aufgrund von Datenverkehrsstau (von allen Partitionen) eingeschränkt ist.

Partition

n

Maximum TX Bandwidth

(Maximalbandbreite der Partition n für die Übertragung (TX)) ist die Maximalbandbreite der ausgewählten

Partition für die Übertragung, angegeben als Prozentsatz der maximalen

Verbindungsgeschwindigkeit des physischen Ports. Die gültigen Werte reichen von

1

-

100

. Der maximale TX-Bandbreitenwert pro Partition gilt unabhängig von der Einstellung des DCBX ETS-Modus.

63 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von Partitionen

Geben Sie einen Wert in jedes ausgewählte Feld ein, und klicken Sie anschließend auf

Back

(Zurück).

4.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.

So konfigurieren Sie Partitionen:

1.

Um eine spezifische Partitionskonfiguration zu untersuchen, wählen Sie auf der Seite „NIC Partitioning Configuration“ (Konfiguration der

NIC-Partitionierung) ( Abbildung 5-15 auf Seite 62 ) die Option

Partition

n

Configuration

(Konfiguration der Partition n) aus. Wenn „NParEP“ nicht aktiviert ist, sind pro Port nur vier Partitionen verfügbar.

2.

Um die erste Partition zu konfigurieren, wählen Sie

Partition 1 Configuration

(Konfiguration der Partition 1) aus, um die Seite „Partition 1 Configuration“

(Konfiguration der Partition 1,

Abbildung 5-17 ) zu öffnen, auf der die

folgenden Parameter angezeigt werden:

NIC Mode

(NIC-Modus, immer aktiviert)

PCI Device ID

(PCI-Geräte-ID)

PCI

(bus)

Address

(PCI-Bus-Adresse)

MAC-Adresse

Virtual MAC Address

(Virtuelle MAC-Adresse)

Wenn „NParEP“ nicht aktiviert ist, sind pro Port nur vier Partitionen verfügbar.

Bei nicht-offload-fähigen Adaptern werden die Optionen

FCoE Mode

(FCoE-Modus) und

iSCSI Mode

(iSCSI-Modus) sowie die zugehörigen

Informationen nicht angezeigt.

Abbildung 5-17. Konfiguration der Partition 1

64 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von Partitionen

3.

Um die erste Partition zu konfigurieren, wählen Sie

Partition 2 Configuration

(Konfiguration der Partition 2) aus, um die Seite „Partition 2 Configuration“

(Konfiguration der Partition 2) zu öffnen. Wenn „FCoE Offload“

(FCoE-Offload) vorhanden ist, zeigt die Option „Partition 2 Configuration“

(Konfiguration der Partition 2,

Abbildung 5-18 ) die folgenden Parameter an:

NIC Mode

(NIC-Modus) aktiviert oder deaktiviert die

L2-Ethernet-NIC-Personalität auf Partitionen ab Partition 2. Um eine der verbleibenden Partitionen zu deaktivieren, setzen Sie

NIC Mode

(NIC-Modus) auf

Disabled

(Deaktiviert). Um die Offload-fähigen

Partitionen zu deaktivieren, deaktivieren Sie die Option

NIC Mode

(NIC-Modus) und den entsprechenden Offload-Modus.

 Die Option

FCoE Mode

(FCoE-Modus) aktiviert oder deaktiviert die

FCoE-Offload-Personalität auf der zweiten Partition. Wenn Sie diesen

Modus auf der zweiten Partition aktivieren, müssen Sie die Option

NIC

Mode

(NIC-Modus) deaktivieren. Da nur ein Offload pro Port verfügbar ist, kann, wenn „FCoE-Offload“ auf der zweiten Partition des Ports aktiviert ist, „iSCSI-Offload“ auf der dritten Partition des gleichen Ports im NPAR-Modus nicht aktiviert werden. Die Option

FCoE Mode

(FCoE-Modus) wird nicht auf allen Adaptern unterstützt.

 Die Option

FCoE Mode

(FCoE-Modus) aktiviert oder deaktiviert die iSCSI-Offload-Personalität auf der dritten Partition. Wenn Sie diesen

Modus auf der dritten Partition aktivieren, müssen Sie die Option

NIC

Mode

(NIC-Modus) deaktivieren. Da nur ein Offload pro Port verfügbar ist, kann, wenn „iSCSI-Offload“ auf der dritten Partition des Ports aktiviert ist, „FCoE-Offload“ auf der zweiten Partition des gleichen

Ports im NPAR-Modus nicht aktiviert werden. Die Option

iSCSI Mode

(iSCSI-Modus) wird nicht auf allen Adaptern unterstützt.

FIP MAC Address

(FIP-MAC-Adresse)

1

Virtual FIP MAC Address

(Virtuelle FIP-MAC-Adresse)

1

World Wide Port Name

(World Wide Port-Name)

1

Virtual World Wide Port Name

(Virtueller World Wide Port-Name)

1

World Wide Node Name

(World Wide Name des Knoten)

1

Virtual World Wide Node Name

(Virtueller World Wide Name des

Knoten)

1

PCI Device ID

(PCI-Geräte-ID)

PCI

(bus)

Address

(PCI-Bus-Adresse)

1

Dieser Parameter ist nur auf der zweiten Partition eines Ports im NPAR-Modus der

FCoE-Offload-fähigen Adapter verfügbar.

65 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von Partitionen

Abbildung 5-18. Konfiguration der Partition 2: FCoE-Offload

4.

Um die dritte Partition zu konfigurieren, wählen Sie

Partition 3 Configuration

(Konfiguration der Partition 3) aus, um die Seite „Partition 3 Configuration“

(Konfiguration der Partition 3,

Abbildung 5-17 ) zu öffnen. Wenn „iSCSI

Offload“ (iSCSI-Offload) vorhanden ist, zeigt die Option „Partition 3

Configuration“ (Konfiguration der Partition 3) die folgenden Parameter an:

NIC Mode

(NIC-Modus) (

Disabled

(Deaktiviert))

iSCSI Offload Mode

(iSCSI-Offload-Modus) (

Enabled

(Aktiviert))

iSCSI Offload MAC Address

(iSCSI-Offload-MAC-Adresse)

2

Virtual iSCSI Offload MAC Address 2

(Virtuelle iSCSI-Offload-MAC-Adresse)

PCI Device ID

(PCI-Geräte-ID)

PCI Address

(PCI-Adresse)

Abbildung 5-19. Konfiguration der Partition 3: iSCSI-Offload

2

Dieser Parameter ist nur auf der dritten Partition eines Ports im NPAR-Modus der iSCSI-Offload-fähigen Adapter verfügbar.

66 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von Partitionen

5.

Um die verbleibenden Ethernet-Partitionen zu konfigurieren, einschließlich der vorherigen (falls nicht für Offload aktiviert), öffnen Sie die Seite für eine

Ethernet-Partition ab Version 2 (siehe

Abbildung 5-20 ).

NIC Mode

(NIC-Modus) (

Enabled

(Aktiviert) oder

Disabled

(Deaktiviert)). Ist diese Option deaktiviert, wird die Partition in einer Art ausgeblendet, dass sie im BS nicht angezeigt wird, wenn weniger

Partitionen als die maximale Anzahl an Partitionen (oder PCI-PFs) erkannt werden.

PCI Device ID

(PCI-Geräte-ID)

PCI Address

(PCI-Adresse)

MAC-Adresse

Virtual MAC Address

(Virtuelle MAC-Adresse)

Abbildung 5-20. Konfiguration der Partition 4: Ethernet

Partitionieren für VMware ESXi 6.0 und ESXi 6.5

Wenn die folgenden Zustände auf einem System vorliegen, auf dem entweder

VMware ESXi 6.0 oder ESXi 6.5 ausgeführt wird, müssen die folgenden Treiber deinstalliert und erneut installiert werden:

 Der Adapter ist für die Aktivierung von NPAR auf allen NIC-Partitionen konfiguriert.

 Der Adapter befindet sich im Modus „Single Function“ (Einzelfunktion).

 Die Konfiguration wird gespeichert und das System neu gestartet.

 Speicherpartitionen sind aktiviert (durch das Konvertieren eine der

NIC-Partitionen in Speicher), während Treiber bereits auf dem System installiert sind.

 Partition 2 wird in FCoE geändert.

 Die Konfiguration wird gespeichert und das System erneut neu gestartet.

67 AH0054602-01 F

5–Adapterkonfiguration vor dem Start

Konfigurieren von Partitionen

Die Treiber-Neuinstallation ist erforderlich, da die Speicherfunktionen ggf. die vmnic

X

-Nummerierung statt der vmhba

X

-Nummerierung beibehalten. Dies wird deutlich, wenn Sie den folgenden Befehl auf dem System ausführen:

#

esxcfg-scsidevs -a

vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a

(0000:19:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE

Controller (FCoE) vmhba0 lsi_mr3 link-n/a sas.51866da071fa9100

(0000:18:00.0) Avago (LSI) PERC H330 Mini vmnic10 qedf link-up fc.2000000e1ef249f8:2001000e1ef249f8

(0000:d8:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE

Controller (FCoE) vmhba1 vmw_ahci link-n/a sata.vmhba1

(0000:00:11.5) Intel Corporation Lewisburg SSATA Controller [AHCI mode] vmhba2 vmw_ahci link-n/a sata.vmhba2

(0000:00:17.0) Intel Corporation Lewisburg SATA Controller [AHCI mode] vmhba32 qedil online iscsi.vmhba32 QLogic

FastLinQ QL41xxx Series 10/25 GbE Controller (iSCSI) vmhba33 qedil online iscsi.vmhba33 QLogic

FastLinQ QL41xxx Series 10/25 GbE Controller (iSCSI)

Beachten Sie in der Ausgabe für den vorherigen Befehl, dass es sich bei vmnic4 und vmnic10

um tatsächliche Speicheradapter-Ports handelt. Um dieses Verhalten zu verhindern, empfiehlt Cavium QLogic, dass Sie die Speicherfunktionen schon bei der Konfiguration des Adapters für den NPAR-Modus aktivieren.

Unter der Annahme, dass sich der Adapter standardmäßig im Modus „Single

Function“ (Einzelfunktion) befindet, sollten Sie beispielsweise die folgenden

Schritte ausführen:

1.

Aktivieren Sie den NPAR-Modus.

2.

Ändern Sie die Partition 2 in FCoE.

3.

Speichern und starten Sie das System neu.

68 AH0054602-01 F

6

RoCE-Konfiguration

In diesem Kapitel wird die RoCE-Konfiguration (V1 und V2) auf dem Adapter der

41

xxx

-Serie, dem Ethernet-Switch und dem Windows- oder Linux-Host beschrieben, darunter:

Unterstützte Betriebssysteme und OFED

„Planen für RoCE“ auf Seite 70

„Vorbereiten des Adapters“ auf Seite 71

„Vorbereiten des Ethernet-Switches“ auf Seite 72

„Konfigurieren von RoCE auf dem Adapter für Windows Server“ auf Seite 73

„Konfigurieren von RoCE auf dem Adapter für Linux“ auf Seite 83

„Konfigurieren von RoCE auf dem Adapter für VMware ESX“ auf Seite 94

ANMERKUNG

Einiger RoCE-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert.

Unterstützte Betriebssysteme und OFED

Tabelle 6-1 zeigt die Betriebssystemunterstützung für RoCE v1, RoCE v2, iWARP

und OFED.

Tabelle 6-1. BS-Unterstützung für RoCE v1, RoCE v2, iWARP und OFED

Betriebssystem

Windows Server 2012 R2

Windows Server 2016

RHEL 6.8

RHEL 6.9

Eingang

Nein

Nein

RoCE v1, iWARP

RoCE v1, iWARP

OFED 3.18-3 GA OFED 4.8-1 GA

k.A.

k.A.

RoCE v1, iWARP

Nein k.A.

k.A.

Nein

Nein

69 AH0054602-01 F

6–RoCE-Konfiguration

Planen für RoCE

Tabelle 6-1. BS-Unterstützung für RoCE v1, RoCE v2, iWARP und OFED (fortgesetzt)

Betriebssystem

RHEL 7.3

RHEL 7.4

SLES 12 SP3

CentOS 7.3

CentOS 7.4

VMware ESXi 6.0 u3

VMware ESXi 6.5, 6.5U1

VMware ESXi 6.7

Eingang

RoCE v1, RoCE v2, iWARP, iSER

RoCE v1, RoCE v2, iWARP, iSER

RoCE v1, RoCE v2, iWARP, iSER

RoCE v1, RoCE v2, iWARP, iSER

RoCE v1, RoCE v2, iWARP, iSER

Nein

RoCE v1, RoCE v2

RoCE v1, RoCE v2

OFED 3.18-3 GA OFED 4.8-1 GA

Nein

Nein

RoCE v1,

RoCE v2, iWARP

Nein

Nein

Nein

Nein k.A.

k.A.

k.A.

Nein

RoCE v1,

RoCE v2, iWARP

Nein k.A.

k.A.

k.A.

Planen für RoCE

Berücksichtigen Sie im Rahmen der Vorbereitung der RoCE-Implementierung

Folgendes:

 Wenn Sie Inbox-OFED verwenden, sollte auf dem Server- und dem

Client-System das gleiche Betriebssystem ausgeführt werden. Einige

Anwendungen funktionieren möglicherweise auch bei unterschiedlichen

Betriebssystemen, es gibt jedoch keine Garantie dafür. Dies ist eine

OFED-Einschränkung.

 Für OFED-Anwendungen (meist perftest-Anwendungen), sollten die Server- und Client-Anwendungen die gleichen Optionen und Werte verwenden.

Es könnte beispielsweise zu Problemen kommen, wenn Betriebssystem und perftest-Anwendung unterschiedliche Versionen aufweisen. Um die perftest-Version zu überprüfen, geben Sie den folgenden Befehl ein:

#

ib_send_bw --version

 Für den Aufbau von libqedr in Inbox-OFED ist eine Installation von libibverbs-devel erforderlich.

70 AH0054602-01 F

6–RoCE-Konfiguration

Vorbereiten des Adapters

 Wenn Sie Benutzerbereichsanwendungen in Inbox-OFED ausführen möchten, müssen Sie die InfiniBand

®

Support-Gruppe von yum groupinstall

„InfiniBand Support“ installieren, das u.a. libibcm und libibverbs enthält.

 OFED- und RDMA-Anwendungen, die von libibverbs abhängig sind, benötigen außerdem die QLogic RDMA-Benutzerbereichsbibliothek mit der

Bezeichnung „libqedr“. Installieren Sie „libqedr“ über die libqedr RPM- oder

Quellpakete.

 RoCE unterstützt nur Little Endian.

 RoCE funktioniert nicht über eine VF in einer SR-IOV-Umgebung.

Vorbereiten des Adapters

Führen Sie die folgenden Schritten aus, um DCBX zu aktivieren und die

RoCE-Priorität mithilfe der HII-Verwaltungsanwendung festzulegen. Weitere

Informationen zur HII-Anwendung finden Sie unter Kapitel 5 Adapterkonfiguration vor dem Start .

So bereiten Sie den Adapter vor:

1.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

Data

Center Bridging (DCB) Settings

(DCB-Einstellungen) aus, und klicken Sie anschließend auf

Finish

(Fertigstellen).

2.

Klicken Sie im Fenster mit den Data Center Bridging (DCB)-Einstellungen auf die Option

DCBX Protocol

(DCBX-Protokoll). Der Adapter der

41

xxx

-Serie unterstützt die Protokolle CEE und IEEE. Dieser Wert sollte mit dem entsprechenden Wert auf dem DCB-Switch übereinstimmen. Wählen

Sie in diesem Beispiel

CEE

oder

Dynamic

(Dynamisch) aus.

3.

Geben Sie im Feld

RoCE Priority

(RoCE-Priorität) einen Prioritätswert ein.

Dieser Wert sollte mit dem entsprechenden Wert auf dem DCB-Switch

übereinstimmen. Geben Sie in diesem Beispiel 5 ein. In der Regel wird 0 als

Standardwert für die Klasse des verlustbehafteten Datenverkehrs, 3 für die

FCoE-Datenverkehrsklasse und 4 für die verlustfreie iSCSI-TLV over

DCB-Datenverkehrsklasse verwendet.

4.

Klicken Sie auf

Back

(Zurück).

5.

Klicken Sie an der Eingabeaufforderung auf

Yes

(Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgestellt wurde.

Unter Windows können Sie DCBX über die HII- oder QoS-Methode konfigurieren. Die in diesem Abschnitt dargestellte Konfiguration verläuft

über HII. Informationen zu QoS finden Sie unter „Konfigurieren von QoS für

RoCE“ auf Seite 235 .

71 AH0054602-01 F

6–RoCE-Konfiguration

Vorbereiten des Ethernet-Switches

Vorbereiten des Ethernet-Switches

In diesem Abschnitt wird beschrieben, wie Sie einen Cisco

®

Nexus

®

6000

Ethernet-Switch und einen Dell

®

Z9100 Ethernet-Switch für RoCE konfigurieren.

Konfigurieren des Cisco Nexus 6000 Ethernet-Switches

Konfigurieren des Dell Z9100 Ethernet-Switches

Konfigurieren des Cisco Nexus 6000 Ethernet-Switches

Die Schritte zum Konfigurieren des Cisco Nexus 6000 Ethernet-Switches für

RoCE umfassen das Konfigurieren von Klassenzuordnungen, das Anwenden der

Richtlinie und das Zuweisen einer VLAN-ID zum Switch-Port.

Gehen Sie wie folgt vor, um den Cisco-Switch zu konfigurieren:

1.

Öffnen Sie wie folgt eine config terminal-Sitzung:

Switch#

config terminal

switch(config)#

2.

Konfigurieren Sie Quality of Service (QoS)-Klassenzuordnungen und stellen

Sie die RoCE-Priorität wie folgt so ein, dass sie der des Adapters entspricht (5).

switch(config)#

class-map type qos class-roce

switch(config)#

match cos 5

3.

Konfigurieren Sie Zuordnungen für Warteschlangenklassen wie folgt: switch(config)#

class-map type queuing class-roce

switch(config)#

match qos-group 3

4.

Konfigurieren Sie Zuordnungen für Netzwerk-QoS-Klassen wie folgt: switch(config)#

class-map type network-qos class-roce

switch(config)#

match qos-group 3

5.

Konfigurieren Sie Zuordnungen für QoS-Richtlinien wie folgt: switch(config)#

policy-map type qos roce

switch(config)#

class type qos class-roce

switch(config)#

set qos-group 3

6.

Konfigurieren Sie Zuordnungen für Warteschlangenrichtlinien, um die

Netzwerkbandbreite zuzuweisen. Verwenden Sie in diesem Beispiel einen

Wert von 50 Prozent: switch(config)#

policy-map type queuing roce

switch(config)#

class type queuing class-roce

switch(config)#

bandwidth percent 50

72 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

7.

Konfigurieren Sie Netzwerk-QoS-Richtlinienzuordnungen, um die

Prioritätsdatenflusssteuerung für die Datenverkehrsklasse „no drop“ wie folgt einzustellen: switch(config)#

policy-map type network-qos roce

switch(config)#

class type network-qos class-roce

switch(config)#

pause no-drop

8.

Wenden Sie die neue Richtlinie auf Systemebene wie folgt an: switch(config)#

system qos

switch(config)#

service-policy type qos input roce

switch(config)#

service-policy type queuing output roce

switch(config)#

service-policy type queuing input roce

switch(config)#

service-policy type network-qos roce

9.

Weisen Sie dem Switch-Port eine VLAN-ID zu, die der VLAN-ID des

Adapters (5) entspricht.

switch(config)#

interface ethernet x/x

switch(config)#

switchport mode trunk

switch(config)#

switchport trunk allowed vlan 1,5

Konfigurieren des Dell Z9100 Ethernet-Switches

Um den Dell Z9100 Ethernet-Switch für RoCE zu konfigurieren, folgen Sie dem

unter Anhang C Dell Z9100-Switch- Konfiguration beschriebenen Verfahren.

Konfigurieren von RoCE auf dem Adapter für

Windows Server

Das Konfigurieren von RoCE auf dem Adapter für Windows Server umfasst das

Aktivieren von RoCE auf dem Adapter und das Überprüfen der MTU-Größe von

Network Direct.

So konfigurieren Sie RoCE auf einem Windows Server-Host:

1.

Aktivieren Sie RoCE auf dem Adapter.

a.

Öffnen Sie den Geräte-Manager von Windows und rufen Sie die

Adapter der 41

xxx

-Serie NDIS Miniport-Eigenschaften auf.

b.

Klicken Sie unter den Eigenschaften des QLogic FastLinQ-Adapters auf die Registerkarte

Advanced

(Erweitert).

c.

Konfigurieren Sie auf der Seite „Advanced“ (Erweitert) die

Eigenschaften unter

Tabelle 6-2

, indem Sie jedes Element unter

Property

(Eigenschaft) auswählen und einen entsprechenden

Wert

für dieses Element auswählen. Klicken Sie anschließend auf

OK

.

73 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

Tabelle 6-2. Erweiterte Eigenschaften für RoCE

Eigenschaft Wert oder Beschreibung

Network Direct-Funktionalität Enabled (Aktiviert)

MTU-Größe für Network

Direct

RDMA-Modus

Die Network Direct-MTU-Größe muss unter der Größe des Jumbo-Pakets liegen.

RoCE v1

oder

RoCE v2

. Der Wert

iWARP

kann nur verwendet werden, wenn Sie Ports für iWARP gemäß

Kapitel 7 iWARP-Konfiguration konfigurieren.

VLAN-ID

Quality of Service

Sie können der Schnittstelle eine beliebige VLAN-ID zuweisen. Der Wert muss mit dem dem Switch zugewiesenen Wert übereinstimmen.

Aktiviert oder deaktiviert die Quality of Service (QoS).

 Wählen Sie

Enabled

(Aktiviert) aus, wenn Sie DCB

über den Windows-DCB-QoS-Dienst steuern. Wei-

tere Informationen finden Sie unter „Konfigurieren von QoS durch Deaktivieren von DCBX auf dem

Adapter“ auf Seite 235

.

 Wählen Sie

Disabled

(Deaktiviert) aus, wenn Sie

DCB über den angeschlossenen DCB-konfigurierten Switch steuern. Weitere Informationen finden

Sie unter „Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter“ auf Seite 239 .

Abbildung 6-1

zeigt ein Beispiel für die Konfiguration eines

Eigenschaftswerts.

74 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

Abbildung 6-1. Konfigurieren der RoCE-Eigenschaften

2.

Überprüfen Sie unter Verwendung von Windows PowerShell, dass RDMA auf dem Adapter aktiviert ist. Der Befehl

Get-NetAdapterRdma

führt die

Adapter auf, die RDMA unterstützen. Beide Ports sind aktiviert.

ANMERKUNG

Wenn Sie RoCE over Hyper-V konfigurieren, weisen Sie der physischen

Schnittstelle keine VLAN-ID zu.

PS C:\Users\Administrator>

Get-NetAdapterRdma

Name InterfaceDescription Enabled

----- -------------------- -------

SLOT 4 3 Port 1 QLogic FastLinQ QL41262... True

SLOT 4 3 Port 2 QLogic FastLinQ QL41262... True

3.

Überprüfen Sie unter Verwendung von Windows PowerShell, dass

NetworkDirect

auf dem Host-Betriebssystem aktiviert ist. Der Befehl

Get-NetOffloadGlobalSetting

zeigt an, dass

NetworkDirect

aktiviert ist.

PS C:\Users\Administrators>

Get-NetOffloadGlobalSetting

ReceiveSideScaling : Enabled

ReceiveSegmentCoalescing : Enabled

Chimney : Disabled

75 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

TaskOffload : Enabled

NetworkDirect : Enabled

NetworkDirectAcrossIPSubnets : Blocked

PacketCoalescingFilter : Disabled

4.

Schließen Sie ein SMB-Laufwerk an (Server Message Block), führen Sie

RoCE-Datenverkehr aus, und überprüfen Sie die Ergebnisse.

Um ein SMB-Laufwerk einzurichten und zu verbinden, zeigen Sie die

Informationen an, die online bei Microsoft verfügbar sind: https://technet.microsoft.com/en-us/library/hh831795(v=ws.11).aspx

5.

Standardmäßig werden in Microsoft SMB Direct zwei RDMA-Verbindungen pro Port hergestellt, was eine gute Leistung ermöglicht. Dazu gehört auch eine Übertragungsrate mit umfassenderer Blockgröße (z. B. 64 KB). Zur

Optimierung der Leistung können Sie die Anzahl der RDMA-Verbindungen pro RDMA-Schnittstelle auf vier (oder mehr) erhöhen.

Geben Sie zum Erhöhen der Anzahl der RDMA-Verbindungen auf vier

(oder mehr) den folgenden Befehl in Windows PowerShell ein:

PS C:\Users\Administrator>

Set-ItemProperty -Path

"HKLM:\SYSTEM\CurrentControlSet\Services\LanmanWorkstation\

Parameters" ConnectionCountPerRdmaNetworkInterface -Type

DWORD -Value 4 –Force

76 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

Anzeigen von RDMA-Zählern

Das folgende Verfahren gilt auch für iWARP.

So zeigen Sie RDMA-Zähler für RoCE an:

1.

Starten Sie die Leistungsüberwachung.

2.

Öffnen Sie das Dialogfeld „Add Counters“ (Zähler hinzufügen).

Abbildung 6-2

zeigt ein Beispiel.

Abbildung 6-2. Dialogfeld „Add Counters“ (Zähler hinzufügen)

77 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

ANMERKUNG

Wenn die Zähler für Cavium RDMA im Dialogfeld „Add Counters“

(Zähler hinzufügen) der Leistungsüberwachung nicht enthalten sind, fügen Sie sie manuell hinzu, indem Sie den folgenden Befehl am

Treiberstandort ausführen:

3.

Wählen Sie einen der folgenden Zähler-Typen aus:

Cavium FastLinQ Congestion Control

:

 Erhöhen bei Stauungen im Netzwerk, wenn ECN am Switch aktiviert ist.

 Beschreiben der erfolgreich versendeten und erhaltenen RoCE v2 ECN Marked Packets und Congestion Notification Packets

(CNPs).

 Nur auf RoCE v2 anwenden.

Cavium FastLinQ Port-Zähler

:

 Erhöhen bei Stauungen im Netzwerk.

 Erhöhen unterbrechen, wenn Datenflusssteuerung oder globale Unterbrechung konfiguriert ist und Stauungen im

Netzwerk auftreten.

 PFC-Zähler erhöhen, wenn Datenflusssteuerung oder globale Unterbrechung konfiguriert ist und Stauungen im

Netzwerk auftreten.

Cavium FastLinQ RDMA Fehler-Zähler

:

 Erhöhen, wenn Fehler im Transportbetrieb auftreten.

 Weitere Informationen finden Sie unter

Tabelle 6-3 .

4.

Wählen Sie unter

Instances of selected object

(Instanzen des ausgewählten Objekts) die Option

Total

(Gesamt) und klicken Sie dann auf

Add

(Hinzufügen).

78 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

Abbildung 6-3

zeigt Beispiele einer Ausgabe der Zählerüberwachung.

Abbildung 6-3. Leistungsüberwachung: Cavium FastLinQ Zähler

Tabelle 6-3 bietet Details zu den Fehler-Zählern .

Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler

RDMA

Fehler-

Zähler

Beschreibung

CQ overflow Eine Completion-Warteschlange, in der eine RDMA-Arbeitsanfrage gepostet wird. Dieser Zähler bestimmt die Anzahl der Fälle, in denen sich in der Sende- oder

Empfangs-Warteschlange eine

Completion für eine Arbeitsanfrage befand, aber in der entsprechenden

Completion-Warteschlange kein Platz war.

Zutreffend für RoCE?

Zutreffend für iWARP?

Ja Ja

Fehlerbehebung

Weist auf ein

Problem mit dem

Softwaredesign hin, das eine unzureichende

Größe der

Completion-Warteschl ange verursacht.

79 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt)

RDMA

Fehler-

Zähler

Requestor local protection

Beschreibung

Requestor

Bad response

Requestor

CQEs flushed with error

Requestor

Local length

Rückgabe einer fehlerhaften

Antwort durch den Responder.

Gepostete Arbeitsanfragen können geflusht werden, indem

Fertigstellungen mit Flush-Status an die CQ (ohne dabei die

Arbeitsanfrage tatsächlich auszuführen), falls das QP aus einem beliebigen Grund in den

Fehlerzustand eintritt und

Arbeitsanfragen noch unerfüllt sind. Wurde eine Arbeitsanfrage mit Fehlerstatus abgeschlossen, werden alle anderen noch nicht abgeschlossenen Arbeitsanfragen für dieses QP geflusht.

RDMA READ-Antwort enthält zu viele oder zu wenig

Payload-Daten.

Zutreffend für RoCE?

Zutreffend für iWARP?

Ja Ja –

Fehlerbehebung

Ja

Ja

Ja

Ja

Ja

Ja

Tritt auf, wenn die

RDMA-Verbindung ausfällt.

Deutet gewöhnlich auf ein Problem mit den

Softwarekomponenten des Hosts hin.

Deutet gewöhnlich auf ein Problem mit den

Softwarekomponenten des Hosts hin.

Requestor local QP operation

Requestor

Remote access

Das Datensegment der lokal geposteten Arbeitsanfrage verweist nicht auf keinen gültigen Speicherbereich für den angeforderten Vorgang.

Beim Verarbeiten dieser

Arbeitsanfrage wurde ein interner

QP-Konsistenzfehler entdeckt.

Auf einem von RDMA Read zu lesenden Remote-Datenpuffer, der von einem RDMA Write geschrieben wurde oder auf den von einem Atomic Request zugegriffen wurde, ist ein

Schutzfehler aufgetreten.

Ja

Ja

Ja

Ja

80 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

RDMA

Fehler-

Zähler

Requestor

Remote

Invalid request

Requestor remote operation

Requestor retry exceeded

Requestor

RNR Retries exceeded

Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt)

Beschreibung

Auf der Remote-Seite wurde eine ungültige Meldung auf dem Kanal erhalten. Bei der ungültigen

Meldung könnte es sich um eine Sendemeldung oder eine

RDMA-Anfrage gehandelt haben.

Die Remote-Seite konnte den

Vorgang aufgrund des lokalen

Problems nicht abschließen.

Das Maximum für

Transport-Wiederholungsversuche wurde erreicht

Neuversuch, da RNR NAK

Empfang ohne Erfolg bis zur maximalen Anzahl versucht wurde

Zutreffend für RoCE?

Zutreffend für iWARP?

Ja Ja

Ja

Ja

Ja

Ja

Ja

Nein

Fehlerbehebung

Mögliche Ursachen sind u. a.: von dieser

Empfangswarteschlan ge nicht unterstützter

Vorgang; unzureichender

Empfangspuffer für neue RDMA- oder Atomic

Request-Anfrage oder die in einer

RDMA-Anfrage angegebene Länge ist höher als 231 Byte.

Ein Softwareproblem auf der Remote-Seite

(z. B. eines, das einen

QP-Fehler oder eine fehlerhafte WQE auf dem RQ verursachte), welches die

Fertigstellung des

Vorgangs verhinderte.

Eventuell antwortet der

Remote-Peer nicht mehr oder ein

Netzwerkproblem verhindert die

Bestätigung von

Meldungen.

Eventuell antwortet der

Remote-Peer nicht mehr oder ein

Netzwerkproblem verhindert die

Bestätigung von

Meldungen.

81 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Windows Server

Responder local length

Responder local protection

Responder

Local QP

Operation error

Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt)

RDMA

Fehler-

Zähler

Responder

CQE flushed

Beschreibung

Gepostete Arbeitsanfragen

(Empfangspuffer in RQ) können geflusht werden, indem

Completions mit Flush-Status and die CQ gesendet werden, wenn das QP aus einem beliebigen

Grund in den Fehlerzustand eintritt und in der RQ noch ausstehende

Empfangspuffer sind. Wurde eine

Arbeitsanfrage mit Fehlerstatus abgeschlossen, werden alle anderen noch nicht abgeschlossenen Arbeitsanfragen für dieses QP geflusht.

Ungültige Länge in eingehenden

Meldungen.

Zutreffend für RoCE?

Zutreffend für iWARP?

Ja Ja –

Fehlerbehebung

Ja Ja

Das Datensegment der lokal geposteten Arbeitsanfrage verweist nicht auf keinen gültigen Speicherbereich für den angeforderten Vorgang.

Beim Verarbeiten dieser

Arbeitsanfrage wurde ein interner

QP-Konsistenzfehler entdeckt.

Ja

Ja

Ja

Ja

Fehlverhalten des

Remote-Peer.

Eingehende

Sende-Meldungen sind beispielsweise größer als der

Empfangspuffer.

Weist auf ein

Softwareproblem mit der

Speicherverwaltung hin.

Deutet auf einen

Softwarefehler hin.

82 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

Tabelle 6-3. Cavium FastLinQ RDMA Fehler-Zähler (fortgesetzt)

RDMA

Fehler-

Zähler

Beschreibung

Responder remote invalid request

Ungültige eingehende Nachricht auf dem Kanal durch den

Responder erkannt.

Zutreffend für RoCE?

Zutreffend für iWARP?

Ja Ja

Fehlerbehebung

Deutet auf ein

Fehlverhalten eines

Remote-Peers hin.

Mögliche Ursachen sind u. a.: von dieser

Empfangswarteschlan ge nicht unterstützter

Vorgang; unzureichender

Empfangspuffer für neue RDMA-Anfrage oder die in einer

RDMA-Anfrage angegebene Länge ist höher als 2

31

Byte.

Konfigurieren von RoCE auf dem Adapter für Linux

In diesem Abschnitt wird das RoCE-Konfigurationsverfahren für RHEL und SLES beschrieben. Es wird auch erläutert, wie Sie die RoCE-Konfiguration überprüfen können. Außerdem finden Sie in dem Abschnitt Hinweise zur Verwendung von

Gruppen-IDs (GIDs) mit VLAN-Schnittstellen.

RoCE-Konfiguration für RHEL

RoCE-Konfiguration für SLES

Überprüfen der RoCE-Konfiguration auf Linux

VLAN-Schnittstellen und GID-Indexwerte

Konfiguration von RoCE V2 für Linux

83 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

RoCE-Konfiguration für RHEL

Zur Konfiguration von RoCE auf dem Adapter muss die Open Fabrics Enterprise

Distribution (OFED) auf dem RHEL-Host installiert und konfiguriert sein.

Gehen Sie wie folgt vor, um Inbox-OFED für RHEL vorzubereiten:

1.

Wählen Sie beim Installieren oder Aktualisieren des Betriebssystems die

InfiniBand- und OFED-Support-Pakete aus.

2.

Installieren Sie die folgenden RPM-Dateien aus dem RHEL-ISO-Image: libibverbs-devel-

x.x.x

.x86_64.rpm

(erforderlich für libqedr-Bibliothek) perftest-

x.x.x

.x86_64.rpm

(erforderlich für InfiniBand-Bandbreiten- und Latenzanwendungen)

Alternativ können Sie Inbox-OFED mit Yum installieren:

yum groupinstall "Infiniband Support" yum install perftest yum install tcl tcl-devel tk zlib-devel libibverbs libibverbs-devel

ANMERKUNG

Wenn Sie während der Installation bereits die oben angegebenen

Pakete installiert haben, müssen Sie sie nicht erneut installieren.

Die Inbox-OFED- und Support-Pakete können je nach

Betriebssystemversion unterschiedlich sein.

3.

Installieren Sie die neuen Linux-Treiber wie unter „Installieren der

Linux-Treiber mit RDMA“ auf Seite 15 beschrieben.

RoCE-Konfiguration für SLES

Zur Konfiguration von RoCE auf dem Adapter für einen SLES-Host muss OFED auf dem SLES-Host installiert und konfiguriert sein.

Gehen Sie wie folgt vor, um Inbox-OFED für SLES Linux zu installieren:

1.

Wählen Sie beim Installieren oder Aktualisieren des Betriebssystems die

InfiniBand-Support-Pakete aus.

2.

Installieren Sie die folgenden RPM-Dateien aus dem jeweiligen SLES

SDK-Kit-Image: libibverbs-devel-

x.x.x

.x86_64.rpm

(erforderlich für libqedr-Installation)

84 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux perftest-

x.x.x

.x86_64.rpm

(erforderlich für Bandbreiten- und Latenzanwendungen)

3.

Installieren Sie die Linux-Treiber, wie unter „Installieren der Linux-Treiber mit

RDMA“ auf Seite 15

beschrieben.

Überprüfen der RoCE-Konfiguration auf Linux

Überprüfen Sie nach dem Installieren von OFED, dem Installieren der

Linux-Treiber und dem Laden der RoCE-Treiber, ob die RoCE-Geräte auf allen

Linux-Betriebssystemen erkannt wurden.

Gehen Sie wie folgt vor, um die RoCE-Konfiguration auf Linux zu überprüfen:

1.

Halten Sie die Firewall-Tabellen mithilfe der service/systemctl

-Befehle an.

2.

Nur für RHEL: Wenn der RDMA-Dienst installiert ist ( yum install rdma

), stellen Sie sicher, dass der RDMA-Dienst gestartet wurde.

ANMERKUNG

Bei RHEL 6.x und SLES 11 SP4 müssen Sie den RDMA-Dienst nach einem Neustart starten. Bei RHEL 7.

x

und SLES ab Version 12 SPX startet der RDMA-Dienst nach dem Neustart selbständig.

Auf RHEL oder CentOS: Verwenden Sie zum Starten des Dienstes den

Statusbefehl service rdma

:

 Falls RDMA nicht startet, geben Sie den folgenden Befehl ein:

#

service rdma start

 Falls RDMA nicht startet, führen Sie alternativ einen der folgenden

Befehle aus:

#

/etc/init.d/rdma start

oder

#

systemctl start rdma.service

3.

Überprüfen Sie in den dmesg-Protokollen, ob die RoCE-Geräte erkannt wurden:

#

dmesg|grep qedr

[87910.988411] qedr: discovered and registered 2 RoCE funcs

4.

Stellen Sie sicher, dass alle Module geladen wurden. Zum Beispiel:

# lsmod|grep qedr

qedr 89871 0

qede 96670 1 qedr

85 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

qed 2075255 2 qede,qedr

ib_core 88311 16 qedr, rdma_cm, ib_cm,

ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp,

ib_ucm,ib_iser,ib_srpt,ib_umad,

ib_uverbs,rdma_ucm,ib_ipoib,ib_isert

5.

Konfigurieren Sie die IP-Adresse und aktivieren Sie den Port unter

Verwendung eines Konfigurationsverfahrens, wie z. B. „ifconfig“:

#

ifconfig ethX 192.168.10.10/24 up

6.

Geben Sie den Befehl ibv_devinfo

ein. Für jede PCI-Funktion sollte eine eigene hca_id

angezeigt werden, wie im folgenden Beispiel dargestellt: root@captain:~#

ibv_devinfo

hca_id: qedr0

transport: InfiniBand (0)

fw_ver: 8.3.9.0

node_guid: 020e:1eff:fe50:c7c0

sys_image_guid: 020e:1eff:fe50:c7c0

vendor_id: 0x1077

vendor_part_id: 5684

hw_ver: 0x0

phys_port_cnt: 1

port: 1

state: PORT_ACTIVE (1)

max_mtu: 4096 (5)

active_mtu: 1024 (3)

sm_lid: 0

port_lid: 0

port_lmc: 0x00

link_layer: Ethernet

7.

Überprüfen Sie die L2- und RoCE-Konnektivität aller Server: ein Server fungiert als Server, der andere als Client.

 Überprüfen Sie die L2-Verbindung, indem Sie einen einfachen ping

-Befehl ausführen.

 Überprüfen Sie die RoCE-Verbindung, indem Sie einen

RDMA-Ping-Befehl auf dem Server oder Client ausführen:

Führen Sie auf dem Server den folgenden Befehl aus:

ibv_rc_pingpong -d <ib-dev> -g 0

Führen Sie auf dem Client den folgenden Befehl aus:

ibv_rc_pingpong -d <ib-dev> -g 0 <Server L2 IP-Address>

86 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

Im Folgenden sind Beispiele für erfolgreiche Ping-Pong-Tests auf dem Server und auf dem Client aufgeführt:

Server-Ping:

root@captain:~#

ibv_rc_pingpong -d qedr0 -g 0

local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570

8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec

1000 iters in 0.05 seconds = 45.61 usec/iter

Client-Ping:

root@lambodar:~#

ibv_rc_pingpong -d qedr0 -g 0 192.168.10.165

local address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570 remote address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0

8192000 bytes in 0.02 seconds = 4211.28 Mbit/sec

1000 iters in 0.02 seconds = 15.56 usec/iter

 Führen Sie zum Anzeigen der RoCE-Statistik die folgenden Befehle aus, wobei

X

für die Gerätenummer steht:

>

mount -t debugfs nodev /sys/kernel/debug

>

cat /sys/kernel/debug/qedr/qedr

X

/stats

VLAN-Schnittstellen und GID-Indexwerte

Falls Sie auf dem Server und auf dem Client VLAN-Schnittstellen verwenden, müssen Sie die gleiche VLAN-ID auf dem Switch konfigurieren. Falls Sie

Datenverkehr über einen Switch ausführen, müssen die InfiniBand-Anwendungen den korrekten GID-Wert verwenden. Dieser basiert auf der VLAN-ID und der

VLAN-IP-Adresse.

Basierend auf den folgenden Ergebnissen, sollte der GID-Wert (-x 4 / -x 5) für jede perftest-Anwendung verwendet werden.

#

ibv_devinfo -d qedr0 -v|grep GID

GID[ 0]: fe80:0000:0000:0000:020e:1eff:fe50:c5b0

GID[ 1]:

GID[ 2]:

GID[ 3]:

GID[ 4]:

GID[ 5]:

0000:0000:0000:0000:0000:ffff:c0a8:0103

2001:0db1:0000:0000:020e:1eff:fe50:c5b0

2001:0db2:0000:0000:020e:1eff:fe50:c5b0

0000:0000:0000:0000:0000:ffff:c0a8:0b03

IP-Adresse für

VLAN-Schnittstelle fe80:0000:0000:0000:020e:1e00:0350:c5b0

VLAN-ID 3

87 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

ANMERKUNG

Der GID-Standardwert für die Einstellungen „Back-to-Back“ oder „Pause“ ist null (0). Bei Server/Switch-Konfigurationen müssen Sie den richtigen

GID-Wert ausfindig machen. Falls Sie einen Switch verwenden, lesen Sie die entsprechende Dokumentation zur Switch-Konfiguration, um die richtigen Einstellungen zu ermitteln.

Konfiguration von RoCE V2 für Linux

Zur Funktionsüberprüfung von RoCE v2 muss ein von RoCE v2 unterstützter

Kernel verwendet werden.

Gehen Sie wie folgt vor, um RoCE v2 für Linux zu konfigurieren:

1.

Stellen Sie sicher, dass Sie einen der folgenden unterstützten Kernels verwenden:

 SLES 12 SP2 GA

 RHEL 7.3 GA

2.

Konfigurieren Sie RoCE v2 wie folgt: a.

Bestimmen Sie den GID-Index für RoCE v2.

b.

Konfigurieren Sie die Routingadresse für Server und Client.

c.

Aktivieren Sie das L3-Routing auf dem Switch.

ANMERKUNG

Sie können RoCE v1 und RoCE v2 unter Verwendung von

RoCE v2-unterstützten Kernels konfigurieren. Mithilfe dieser Kernels ist es möglich, den RoCE-Datenverkehr über dasselbe Teilnetz oder

über unterschiedliche Teilnetze wie RoCE v2 und beliebige andere routingfähige Umgebungen auszuführen. Für RoCE v2 sind nur wenige Einstellungen erforderlich, alle anderen Switch- und

Adaptereinstellungen für RoCE v1 und RoCE v2 sind einheitlich.

Bestimmen des RoCE v2-GID-Indexes oder der Adresse

Zur Ermittlung der spezifischen GIDs für RoCE v1 und RoCE v2 können Sie entweder System- oder Kategorieparameter verwenden. Alternativ können Sie auch die RoCE-Scripts aus dem Quellpaket der Serie 41

xxx

FastLinQ ausführen.

Zur Überprüfung der Standardeinstellung für den

RoCE GID Index

(RoCE-GID-Index) und der Adresse führen Sie den Befehl ibv_devinfo

aus und vergleichen diesen mit den System- oder Kategorieparametern. Zum Beispiel:

#

ibv_devinfo -d qedr0 -v|grep GID

GID[ 0]: fe80:0000:0000:0000:020e:1eff:fec4:1b20

88 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

GID[ 1]: fe80:0000:0000:0000:020e:1eff:fec4:1b20

GID[ 2]: 0000:0000:0000:0000:0000:ffff:1e01:010a

GID[ 3]: 0000:0000:0000:0000:0000:ffff:1e01:010a

GID[ 4]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004

GID[ 5]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004

GID[ 6]: 0000:0000:0000:0000:0000:ffff:c0a8:6403

GID[ 7]: 0000:0000:0000:0000:0000:ffff:c0a8:6403

Überprüfen des GID-Indexes für RoCE v1 oder RoCE v2 sowie der Adresse mithilfe der System- und Kategorieparameter

Verwenden Sie eine der folgenden Optionen, um den GID-Index für RoCE v1 oder

RoCE v2 sowie die Adresse mithilfe der unten angeführten System- und

Kategorieparameter zu überprüfen:

Option 1:

#

cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/0

IB/RoCE V1

#

cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/1

RoCE V2

#

cat /sys/class/infiniband/qedr0/ports/1/gids/0

fe80:0000:0000:0000:020e:1eff:fec4:1b20

#

cat /sys/class/infiniband/qedr0/ports/1/gids/1

fe80:0000:0000:0000:020e:1eff:fec4:1b20

Option 2:

Verwenden Sie die Scripts aus dem FastLinQ-Quellpaket.

#

/../fastlinq-8.

x.x.x

/add-ons/roce/show_gids.sh

DEV PORT INDEX GID IPv4 VER DEV

--- ---- ----- --- ------------ --- --qedr0 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v1 p4p1 qedr0 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v2 p4p1 qedr0 1 2 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v1 p4p1 qedr0 1 3 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v2 p4p1 qedr0 1 4 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v1 p4p1 qedr0 1 5 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v2 p4p1 qedr0 1 6 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v1 p4p1.100

qedr0 1 7 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v2 p4p1.100

qedr1 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v1 p4p2 qedr1 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v2 p4p2

89 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

ANMERKUNG

Sie müssen die GID-Indexwerte für RoCE v1 oder RoCE v2 auf Basis der Server- oder Switch-Konfiguration spezifizieren (Pause/PFC).

Verwenden Sie den GID-Index für die Link-local-IPv6-Adresse, die

IPv4-Adresse oder die IPv6-Adresse. Zur Verwendung von

VLAN-markierten Frames für den RoCE-Datenverkehr müssen Sie die

GID-Indexwerte spezifizieren, die sich von der VLAN-IPv4-Adresse oder der VLAN-IPv6-Adresse ableiten.

Überprüfen der RoCE v1- oder RoCE v2-Funktion mithilfe der perftest-Anwendungen

In diesem Abschnitt erfahren Sie, wie Sie die RoCE v1- oder RoCE v2-Funktion mithilfe der perftest-Anwendungen überprüfen. In diesem Beispiel werden die folgende Server-IP und die folgende Client-IP verwendet:

 Server-IP: 192.168.100.3

 Client-IP: 192.168.100.4

Überprüfen von RoCE v1

Verwenden Sie zur Ausführung dasselbe Teilnetz und den GID-Index für RoCE v1.

Server#

ib_send_bw -d qedr0 -F -x 0

Client#

ib_send_bw -d qedr0 -F -x 0 192.168.100.3

Überprüfen von RoCE v2

Verwenden Sie zur Ausführung dasselbe Teilnetz und den GID-Index für RoCE v2.

Server#

ib_send_bw -d qedr0 -F -x 1

Client#

ib_send_bw -d qedr0 -F -x 1 192.168.100.3

ANMERKUNG

Wenn Sie die Ausführung mittels PFC-Switch-Konfiguration durchführen, verwenden Sie die GIDs für RoCE v1 oder RoCE v2 über dasselbe Teilnetz.

Überprüfen von RoCE V2 über verschiedene Teilnetze

ANMERKUNG

Sie müssen zunächst die Routeneinstellungen für Switch und Server konfigurieren. Stellen Sie mithilfe der Benutzerschnittstelle für HII oder UEFI die RoCE-Priorität und den DCBX-Modus am Adapter ein.

90 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

Gehen Sie wie folgt vor, um RoCE v2 über verschiedene Teilnetze zu

überprüfen:

1.

Stellen Sie mithilfe der DCBX-PFC-Konfiguration die Routenkonfiguration für Server und Client ein.

Systemeinstellungen:

Server-VLAN-IP

: 192.168.100.3 und

Gateway:

192.168.100.1

Client-VLAN-IP

: 192.168.101.3 und

Gateway:

192.168.101.1

Serverkonfiguration

:

#

/sbin/ip link add link p4p1 name p4p1.100 type vlan id 100

#

ifconfig p4p1.100 192.168.100.3/24 up

#

ip route add 192.168.101.0/24 via 192.168.100.1 dev p4p1.100

Client-Konfiguration:

#

/sbin/ip link add link p4p1 name p4p1.101 type vlan id 101

#

ifconfig p4p1.101 192.168.101.3/24 up

#

ip route add 192.168.100.0/24 via 192.168.101.1 dev p4p1.101

2.

Passen Sie die Switcheinstellungen mithilfe des folgenden Verfahrens an.

 Verwenden Sie eine beliebige Methode zur Datenflusssteuerung

(Pause, DCBX-CEE oder DCBX-IEEE) und aktivieren Sie das

IP-Routing für RoCE v2. Informationen zur Konfiguration von RoCE v2

finden Sie unter „Vorbereiten des Ethernet-Switches“ auf Seite 72

oder in den Switch-Dokumenten des Händlers.

 Wenn Sie eine PCF-Konfiguration und L3-Routing verwenden, führen

Sie den RoCE v2-Datenverkehr über ein anderes Teilnetz aus und verwenden Sie den VLAN-GID-Index für RoCE v2.

Server#

ib_send_bw -d qedr0 -F -x 5

Client#

ib_send_bw -d qedr0 -F -x 5 192.168.100.3

91 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

Server-Switch-Einstellungen:

Abbildung 6-4. Switch-Einstellungen, Server

Client-Switch-Einstellungen:

Abbildung 6-5. Switch-Einstellungen, Client

92 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für Linux

Konfigurieren der Einstellungen von RoCE v1 oder RoCE v2 für

RDMA_CM-Anwendungen

Verwenden Sie zum Konfigurieren von RoCE die folgenden Scripts aus dem

FastLinQ-Quellpaket:

#

./show_rdma_cm_roce_ver.sh

qedr0 wird zu IB/RoCE V1 konfiguriert qedr1 wird zu IB/RoCE V1 konfiguriert

#

./config_rdma_cm_roce_ver.sh v2

configured rdma_cm for qedr0 to RoCE V2 configured rdma_cm for qedr1 to RoCE V2

Server-Einstellungen:

Abbildung 6-6. Konfigurieren der RDMA_CM-Anwendungen: Server

Client-Einstellungen:

Abbildung 6-7. Konfigurieren der RDMA_CM-Anwendungen: Client

93 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für VMware ESX

Konfigurieren von RoCE auf dem Adapter für

VMware ESX

In diesem Abschnitt finden Sie die folgenden Verfahren und Informationen zur

RoCE-Konfiguration:

Konfigurieren von RDMA-Schnittstellen

Konfigurieren von MTU

RoCE-Modus und Statistikdaten

Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA)

Konfigurieren von RDMA-Schnittstellen

So konfigurieren Sie die RDMA-Schnittstellen:

1.

Installieren Sie die QLogic-NIC- und die RoCE-Treiber.

2.

Aktivieren Sie unter Verwendung des Modulparameters die RoCE-Funktion

über den NIC-Treiber, indem Sie den folgenden Befehl ausführen:

esxcfg-module -s 'enable_roce=1' qedentv

Um die Änderung anzuwenden, laden Sie den NIC-Treiber neu oder starten das System neu.

3.

Um eine Liste der NIC-Schnittstellen anzuzeigen, führen Sie den Befehl esxcfg-nics -l

aus. Zum Beispiel:

esxcfg-nics -l

Name PCI Driver Link Speed Duplex MAC Address MTU Description

Vmnic0 0000:01:00.2 qedentv Up 25000Mbps Full a4:5d:36:2b:6c:92 1500 QLogic Corp.

QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter

Vmnic1 0000:01:00.3 qedentv Up 25000Mbps Full a4:5d:36:2b:6c:93 1500 QLogic Corp.

QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter

4.

Um eine Liste der RDMA-Geräte anzuzeigen, führen Sie den Befehl esxcli rdma device list

aus. Zum Beispiel:

esxcli rdma device list

Name Driver State MTU Speed Paired Uplink Description

------- ------- ------ ---- ------- ------------- ------------------------------vmrdma0 qedrntv Active 1024 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface

94 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für VMware ESX

5.

Um einen neuen virtuellen Switch zu erstellen, führen Sie den folgenden

Befehl aus:

esxcli network vswitch standard add -v <Name neuer Switch>

Zum Beispiel:

#

esxcli network vswitch standard add -v roce_vs

Damit wird ein neuer virtueller Switch mit der Bezeichnung

roce_vs

erstellt.

6.

Um den QLogic NIC-Port mit dem virtuellen Switch zu verbinden, führen Sie den folgenden Befehl aus:

#

esxcli network vswitch standard uplink add -u <uplink device> -v <roce vswitch>

Zum Beispiel:

#

esxcli network vswitch standard uplink add -u vmnic0 -v roce_vs

7.

Um eine neue Port-Gruppe auf diesem virtuellen Switch zu erstellen, führen

Sie den folgenden Befehl aus:

#

esxcli network vswitch standard portgroup add -p roce_pg -v roce_vs

Zum Beispiel:

#

esxcli network vswitch standard portgroup add -p roce_pg -v roce_vs

8.

Um eine vmknic-Schnittstelle auf dieser Port-Gruppe zu erstellen und die IP zu konfigurieren, führen Sie den folgenden Befehl aus:

#

esxcfg-vmknic -a -i <IP address> -n <subnet mask> <roce port group name>

Zum Beispiel:

#

esxcfg-vmknic -a -i 192.168.10.20 -n 255.255.255.0 roce_pg

9.

Führen Sie zum Konfigurieren der VLAN-ID den folgenden Befehl aus:

#

esxcfg-vswitch -v <VLAN-ID> -p roce_pg

Konfigurieren Sie zum Ausführen des RoCE-Datenverkehrs mit der

VLAN-ID die VLAN-ID auf der entsprechenden VM-Kernel-Port-Gruppe.

95 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für VMware ESX

Konfigurieren von MTU

Ändern Sie zum Anpassen der MTU für die RoCE-Schnittstelle die MTU des entsprechenden virtuellen Switches. Setzen Sie die MTU-Größe der

RDMA-Schnittstelle auf Basis der MTU des virtuellen Switches fest, indem Sie den folgenden Befehl ausführen:

#

esxcfg-vswitch -m <neue MTU> <RoCE vswitch name>

Zum Beispiel:

#

esxcfg-vswitch -m 4000 roce_vs

# esxcli rdma device list

Name Driver State MTU Speed Paired Uplink Description

------- ------- ------ ---- ------- ------------- ------------------------------vmrdma0 qedrntv Active 2048 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface

RoCE-Modus und Statistikdaten

Für den ordnungsgemäßen Betrieb des RoCE-Modus ist für ESXi eine gleichzeitige

Unterstützung von RoCE in Version 1 und Version 2 erforderlich. Die Entscheidung in Bezug darauf, welcher RoCE-Modus verwendet wird, wird während der

Erstellung des Warteschlangenpaares getroffen. Der ESXi-Treiber bewirbt während der Registrierung und Initialisierung beide Modi. Führen Sie zum Anzeigen der

RoCE-Statistikdaten den folgenden Befehl aus:

#

esxcli rdma device stats get -d vmrdma0

Packets received: 0

Packets sent: 0

Bytes received: 0

Bytes sent: 0

Error packets received: 0

Error packets sent: 0

Error length packets received: 0

Unicast packets received: 0

Multicast packets received: 0

Unicast bytes received: 0

Multicast bytes received: 0

Unicast packets sent: 0

Multicast packets sent: 0

Unicast bytes sent: 0

Multicast bytes sent: 0

Queue pairs allocated: 0

Queue pairs in RESET state: 0

Queue pairs in INIT state: 0

96 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für VMware ESX

Queue pairs in RTR state: 0

Queue pairs in RTS state: 0

Queue pairs in SQD state: 0

Queue pairs in SQE state: 0

Queue pairs in ERR state: 0

Queue pair events: 0

Completion queues allocated: 1

Completion queue events: 0

Shared receive queues allocated: 0

Shared receive queue events: 0

Protection domains allocated: 1

Memory regions allocated: 3

Address handles allocated: 0

Memory windows allocated: 0

Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA)

So konfigurieren Sie ein PVRDMA über die vCenter-Schnittstelle:

1.

Erstellen und konfigurieren Sie wie folgt einen neuen, verteilten virtuellen Switch: a.

Klicken Sie im VMware vSphere-Web-Client mit der rechten Maustaste auf den Knoten

RoCE

im linken Fensterbereich des Navigator-Fensters.

b.

Zeigen Sie im Menü „Actions“ (Aktionen) auf

Distributed Switch

(Verteilter Switch) und klicken Sie dann auf

New Distributed Switch

(Neuer verteilter Switch).

c.

Wählen Sie Version 6.5.0 aus.

d.

Klicken Sie unter

New Distributed Switch

(Neuer verteilter Switch) auf

Edit settings

(Einstellungen bearbeiten) und konfigurieren Sie dann die folgenden Elemente:

Number of uplinks

(Anzahl der Uplinks). Wählen Sie einen entsprechenden Wert aus.

Network I/O Control

(Netzwerk-E/A-Kontrolle). Wählen Sie

Disabled

(Deaktiviert) aus.

Default port group

(Standard-Port-Gruppe). Aktivieren Sie dieses Kontrollkästchen.

Port group name

(Port-Gruppenname). Geben Sie einen

Namen für die Port-Gruppe ein.

Abbildung 6-8 zeigt ein Beispiel.

97 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für VMware ESX

Abbildung 6-8. Konfigurieren eines neuen verteilten Switches

2.

Konfigurieren Sie einen verteilten virtuellen Switch wie folgt: a.

Erweitern Sie im VMware vSphere-Web-Client den Knoten

RoCE

im linken Fensterbereich des Navigator-Fensters.

b.

Klicken Sie mit der rechten Maustaste auf

RoCE-VDS

und dann auf

Add and Manage Hosts

(Hosts hinzufügen und verwalten).

c.

Konfigurieren Sie unter

Add and Manage Hosts

(Hosts hinzufügen und verwalten) Folgendes:

Assign uplinks

(Uplinks zuweisen). Wählen Sie aus der Liste der verfügbaren Uplinks aus.

Manage VMkernel network adapters

(VM-Kernel-Netzwerkadapter verwalten). Übernehmen Sie den

Standardwert und klicken Sie dann auf

Next

(Weiter).

Migrate VM networking

(VM-Netzwerk migrieren). Weisen Sie

die Port-Gruppe zu, die Sie in Schritt 1 erstellt haben.

3.

Weisen Sie eine vmknic für PVRDMA zur Verwendung auf ESX-Hosts zu: a.

Klicken Sie mit der rechten Maustaste auf einen Host und dann auf

Settings

(Einstellungen).

b.

Erweitern Sie auf der Seite „Settings“ (Einstellungen) den Knoten

System

(System) und klicken Sie dann auf

Advanced System

Settings

(Erweiterte Systemeinstellungen).

c.

Daraufhin wird die Seite „Advanced System Settings“ (Erweiterte

Systemeinstellungen) mit dem Schlüsselpaarwert und dessen

Zusammenfassung angezeigt. Klicken Sie auf

Edit

(Bearbeiten).

d.

Filtern Sie auf der Seite „Edit Advanced System Settings“ (Erweiterte

Systemeinstellungen bearbeiten) nach

PVRDMA

, um alle

Einstellungen auf „Net.PVRDMAVmknic“ einzugrenzen.

98 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für VMware ESX e.

Setzen Sie den Wert

Net.PVRDMAVmknic

auf

vmknic

; Beispiel:

vmk1

.

Abbildung 6-9 zeigt ein Beispiel.

Abbildung 6-9. Zuweisen eines vmknic für PVRDMA

4.

Legen Sie die Firewall-Regel für PVRDMA fest: a.

Klicken Sie mit der rechten Maustaste auf einen Host und dann auf

Settings

(Einstellungen).

b.

Erweitern Sie auf der Seite „Settings“ (Einstellungen) den Knoten

System

(System) und klicken Sie dann auf

Security Profile

(Sicherheitsprofil).

c.

Klicken Sie auf der Seite „Firewall Summary“

(Firewall-Zusammenfassung) auf

Edit

(Bearbeiten).

d.

Scrollen Sie im Dialogfeld „Edit Security Profile“ (Sicherheitsprofil bearbeiten) unter

Name

(Name) herunter, aktivieren Sie das

Kontrollkästchen

pvrdma

und aktivieren Sie dann das

Kontrollkästchen

Set Firewall

(Firewall festlegen).

Abbildung 6-10 zeigt ein Beispiel.

99 AH0054602-01 F

6–RoCE-Konfiguration

Konfigurieren von RoCE auf dem Adapter für VMware ESX

Abbildung 6-10. Festlegen der Firewall-Regel

5.

Richten Sie die virtuelle Maschine für PVRDMA wie folgt ein: a.

Installieren Sie eines der folgenden unterstützten Gastbetriebssysteme:

 RHEL 7.2

 Ubuntu 14.04 (Kernel-Version 4.0) b.

Installieren Sie OFED-3.18.

c.

Kompilieren und installieren Sie den PVRDMA-Gastreiber und die zugehörige Bibliothek.

d.

Fügen Sie einen neuen PVRDMA-Netzwerkadapter wie folgt zur virtuellen Maschine hinzu:

 Bearbeiten Sie die Einstellungen der virtuellen Maschine.

 Fügen Sie einen neuen Adapter hinzu.

 Wählen Sie die neu hinzugefügte DVS-Port-Gruppe als

Network

(Netzwerk) aus.

 Wählen Sie

PVRDMA

als Adaptertyp aus.

e.

Nachdem die virtuelle Maschine gestartet wurde, stellen Sie sicher, dass der PVRDMA-Gästetreiber geladen wird.

100 AH0054602-01 F

7

iWARP-Konfiguration

iWARP (Internet Wide Area RDMA Protocol) ist ein Computernetzwerkprotokoll, das RDMA für eine effiziente Datenübertragung über IP-Netzwerke implementiert. iWARP wurde für mehrere Umgebungen konzipiert, darunter LANs,

Speichernetzwerke, Rechenzentrumsnetzwerke und WANs.

In diesem Kapitel finden Sie Anweisungen für Folgendes:

Vorbereiten des Adapters auf iWARP

„Konfigurieren von iWARP unter Windows“ auf Seite 102

„Konfigurieren von iWARP unter Linux“ auf Seite 105

ANMERKUNG

Einige iWARP-Funktionen sind in der aktuellen Version möglicherweise

nicht vollständig aktiviert. Weitere Details finden Sie unter Anhang D

Einschränkungen bei Merkmalen und Funktionen .

Vorbereiten des Adapters auf iWARP

Dieser Abschnitt enthält Anweisungen für die Adapter-iWARP-Konfiguration vor dem Start über HII. Weitere Informationen zur Adapterkonfiguration vor dem Start finden Sie unter

Kapitel 5 Adapterkonfiguration vor dem Start

.

So konfigurieren Sie iWARP über HII im Modus „Default“ (Standard):

1.

Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf

Device Settings

(Geräteeinstellungen).

2.

Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) einen Port für den 25-G-Adapter der 41

xxx

-Serie.

3.

Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) für den ausgewählte Adapter auf

NIC Configuration

(NIC-Konfiguration).

4.

Führen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die folgenden Schritte aus: a.

Setzen Sie das Feld

NIC + RDMA Mode

(NIC- + RDMA-Modus) auf

Enabled

(Aktiviert).

101 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Windows b.

Setzen Sie das Feld

RDMA Protocol Support

(RDMA-Protokollunterstützung) auf

iWARP

.

c.

Klicken Sie auf

Back

(Zurück).

5.

Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf

Finish

(Fertigstellen).

6.

Wenn das Nachrichtenfeld „Warning - Saving Changes“ (Warnung –

Änderungen werden gespeichert) angezeigt wird, klicken Sie zum Speichern der Konfiguration auf

Yes

(Ja).

7.

Klicken Sie im Nachrichtenfeld „Success - Saving Changes“ (Erfolg –

Änderungen werden gespeichert) auf

OK

.

8.

Wiederholen Sie

Schritt 2

bis

Schritt 7

, um die NIC und iWARP für die anderen Ports zu konfigurieren.

9.

So schließen Sie die Adaptervorbereitung für beide Ports ab: a.

Klicken Sie auf der Seite „Device Settings“ (Geräteeinstellungen) auf

Finish

(Fertigstellen). b.

Klicken Sie im Hauptmenü auf

Finish

(Fertigstellen).

c.

Schließen Sie das Menü, um das System neu zu starten.

Fahren Sie mit

„Konfigurieren von iWARP unter Windows“ auf Seite 102

oder

„Konfigurieren von iWARP unter Linux“ auf Seite 105

fort.

Konfigurieren von iWARP unter Windows

Dieser Abschnitt erläutert die Abläufe für das Aktivieren von iWARP, das

Überprüfen von RDMA und das Überprüfen des iWARP-Datenverkehrs unter

Windows. Eine Liste aller unterstützten Betriebssysteme finden Sie unter

Tabelle 6-1 auf Seite 69

.

So aktivieren Sie iWARP auf dem Windows-Host und überprüfen RDMA:

1.

Aktivieren Sie iWARP auf dem Windows-Host.

a.

Öffnen Sie den Geräte-Manager von Windows und rufen Sie die

Adapter der 41

xxx

-Serie NDIS Miniport-Eigenschaften auf.

b.

Klicken Sie in den Eigenschaften für den FastLinQ-Adapter auf die

Registerkarte

Advanced

(Erweitert).

c.

Führen Sie auf der Seite „Advanced“ (Erweitert) unter

Property

(Eigenschaft)

die folgenden Schritte aus:

 Wählen Sie

Network Direct Functionality

(Network

Direct-Funktionalität) und dann

Enabled

(Aktiviert) für

Value

(Wert) aus.

102 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Windows

 Wählen Sie

RDMA Mode

(RDMA-Modus) und wählen Sie dann

iWARP

als

Value

(Wert).

d.

Klicken Sie auf die Schaltfläche

OK

, um die Änderungen zu speichern und das Dialogfeld mit den Adaptereigenschaften zu schließen.

2.

Überprüfen Sie unter Verwendung von Windows PowerShell, dass RDMA aktiviert ist. Die Befehlsausgabe

Get-NetAdapterRdma

(

Abbildung 7-1

) zeigt die Adapter, die RDMA unterstützen.

Abbildung 7-1. Windows PowerShell-Befehl: Get-NetAdapterRdma

3.

Stellen Sie unter Verwendung von Windows PowerShell sicher, dass

NetworkDirect

aktiviert ist. Die Befehlsausgabe

Get-NetOffloadGlobalSetting

( Abbildung 7-2

) zeigt

NetworkDirect

als

Enabled

(Aktiviert).

Abbildung 7-2. Windows PowerShell-Befehl: Get-NetOffloadGlobalSetting

So überprüfen Sie den iWARP-Datenverkehr:

1.

Ordnen Sie SMB-Laufwerke zu und führen Sie iWARP-Datenverkehr aus.

2.

Starten Sie die Leistungsüberwachung (Perfmon).

3.

Klicken Sie im Dialogfeld „Add Counters“ (Zähler hinzufügen) auf

RDMA

Activity

(RDMA-Aktivität) und wählen Sie die Adapterinstanzen aus.

Abbildung 7-3

zeigt ein Beispiel.

103 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Windows

Abbildung 7-3. Perfmon: Zähler hinzufügen

Wenn der iWARP-Datenverkehr ausgeführt wird, werden Zähler gemäß dem

Beispiel in Abbildung 7-4 angezeigt.

Abbildung 7-4. Perfmon: Überprüfen des iWARP-Datenverkehrs

104 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Linux

ANMERKUNG

Weitere Informationen zum Verfahren für die Anzeige von Cavium

RDMA-Zählern unter Windows finden Sie unter „Anzeigen von

RDMA-Zählern“ auf Seite 77

.

4.

So überprüfen Sie die SMB-Verbindung: a.

Führen Sie an einer Befehlseingabe den Befehl net use

wie folgt aus:

C:\Users\Administrator>

net use

New connections will be remembered.

Status Local Remote Network

---------------------------------------------------------

OK F: \\192.168.10.10\Share1

The command completed successfully.

Microsoft Windows Network b.

Führen Sie den Befehl net -xan

wie folgt aus, wobei

Share1

als

SMB-Freigabe verknüpft ist:

C:\Users\Administrator>

net -xan

Active NetworkDirect Connections, Listeners, ShareEndpoints

Mode IfIndex Type Local Address Foreign Address PID

Kernel

Kernel

60 Listener [fe80::e11d:9ab5:a47d:4f0a%56]:445 NA

60 Listener [fe80::71ea:bdd2:ae41:b95f%60]:445 NA

0

0

0

Konfigurieren von iWARP unter Linux

QLogic Adapter der 41

xxx

-Serie unterstützen iWARP auf Linux Open Fabric

Enterprise-Distributionen (OFEDs), die unter

Tabelle 6-1 auf Seite 69 aufgeführt

werden.

Die iWARP-Konfiguration auf einem Linux-System umfasst Folgendes:

Installieren des Treibers

Konfigurieren von iWARP und RoCE

Erkennen des Geräts

105 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Linux

Unterstützte iWARP-Anwendungen

Ausführen des Befehls „Perftest“ für iWARP

Konfigurieren von NFS-RDMA

iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und OFED

4.8x

Installieren des Treibers

Installieren Sie die RDMA-Treiber wie unter

Kapitel 3 Treiberinstallation

beschrieben.

Konfigurieren von iWARP und RoCE

ANMERKUNG

Dieses Verfahren gilt nur, wenn Sie zuvor im Rahmen der Konfiguration vor dem Start

iWARP+RoCE

als Wert für den Parameter für die

RDMA-Protokollunterstützung unter Verwendung von HII ausgewählt haben

(siehe

Konfigurieren von NIC-Parametern ,

Schritt 5 auf Seite 51 ).

So konfigurieren Sie iWARP und RoCE:

1.

Alle FastlinQ-Treiber entladen

#

modprobe -r qedr or modprobe -r qede

2.

Verwenden Sie die folgende Befehlssyntax, um das RDMA-Protokoll durch das Laden des qed

-Treibers mit einer Port-Schnittstellen-PCI-ID ( xx:xx.x

) und eines RDMA-Protokollwerts (

p

) zu ändern.

#modprobe -v qed rdma_protocol_map=<xx:xx.x-p>

Die Werte für das RDMA-Protokoll ( p

) lauten wie folgt:

 0: Standardwerte übernehmen (RoCE)

 1: Kein RDMA

 2: RoCE

 3: iWARP

Führen Sie beispielsweise den folgenden Befehl aus, um die Schnittstelle auf dem von 04:00.0 zur Verfügung gestellten Port von RoCE in iWARP zu ändern.

#

modprobe -v qed rdma_protocol_map=04:00.0-3

3.

Laden Sie den RDMA-Treiber, indem Sie den folgenden Befehl ausführen:

#

modprobe -v qedr

106 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Linux

Das folgende Beispiel zeigt die Befehlseingaben zum Ändern des RDMA-Protokolls in iWARP auf mehreren NPAR-Schnittstellen:

#

modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3,

04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.7-3

#

modprobe -v qedr

#

ibv_devinfo |grep iWARP

transport: iWARP (1)

transport: iWARP (1)

transport: iWARP (1)

transport: iWARP (1)

transport: iWARP (1)

transport: iWARP (1)

transport: iWARP (1)

transport: iWARP (1)

Erkennen des Geräts

So erkennen Sie das Gerät:

1.

Um zu überprüfen, ob RDMA-Geräte erkannt werden, prüfen Sie die folgenden dmesg

-Protokolle:

#

dmesg |grep qedr

[10500.191047] qedr 0000:04:00.0: registered qedr0

[10500.221726] qedr 0000:04:00.1: registered qedr1

2.

Führen Sie den Befehl ibv_devinfo

aus und überprüfen Sie dann den

Übermittlungstyp.

Wird der Befehl erfolgreich ausgeführt, wird für jede PCI-Funktion eine getrennte hca_id

angezeigt. Beispiel (wenn Sie den zweiten Port des oben genannten Dual-Port-Adapters überprüfen):

[root@localhost ~]#

ibv_devinfo -d qedr1

hca_id: qedr1

transport: iWARP (1)

fw_ver: 8.14.7.0

node_guid: 020e:1eff:fec4:c06e

sys_image_guid: 020e:1eff:fec4:c06e

vendor_id: 0x1077

vendor_part_id: 5718

hw_ver: 0x0

phys_port_cnt: 1

port: 1

state: PORT_ACTIVE (4)

max_mtu: 4096 (5)

107 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Linux

active_mtu: 1024 (3)

sm_lid: 0

port_lid: 0

port_lmc: 0x00

link_layer: Ethernet

Unterstützte iWARP-Anwendungen

Zu den von Linux unterstützten RDMA-Anwendungen für iWARP gehören:

 ibv_devinfo, ib_devices

 ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat

Bei iWARP müssen alle Anwendungen den

RDMA-Kommunikationsmanager (rdma_cm) über die Option

-R

verwenden.

 rdma_server, rdma_client

 rdma_xserver, rdma_xclient

 rping

 NFS over RDMA (NFSoRDMA)

 iSER (Details finden Sie unter

Kapitel 8 iSER-Konfiguration )

 NVMe-oF (weitere Details finden Sie unter

Kapitel 12

NVMe-oF-Konfiguration mit RDMA

)

Ausführen des Befehls „Perftest“ für iWARP

Alle Perftest-Werkzeuge werden für den iWARP-Übermittlungstyp unterstützt.

Sie müssen die Werkzeuge über den RDMA-Verbindungsmanager (über die

Option

-R

) ausführen.

Beispiel:

1.

Führen Sie auf einem Server den folgenden Befehl (unter Verwendung des zweiten Ports in diesem Beispiel) aus:

#

ib_send_bw -d qedr1 -F -R

2.

Führen Sie auf einem Client den folgenden Befehl (unter Verwendung des zweiten Ports in diesem Beispiel) aus:

[root@localhost ~]#

ib_send_bw -d qedr1 -F -R 192.168.11.3

----------------------------------------------------------------------------

Send BW Test

Dual-port : OFF Device : qedr1

Number of qps : 1 Transport type : IW

Connection type : RC Using SRQ : OFF (AUS)

TX depth : 128

108 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Linux

CQ Moderation : 100

Mtu : 1024[B]

Link type : Ethernet

GID index : 0

Max inline data : 0[B]

rdma_cm QPs : ON

Data ex. method : rdma_cm

----------------------------------------------------------------------------

local address: LID 0000 QPN 0x0192 PSN 0xcde932

GID: 00:14:30:196:192:110:00:00:00:00:00:00:00:00:00:00

remote address: LID 0000 QPN 0x0098 PSN 0x46fffc

GID: 00:14:30:196:195:62:00:00:00:00:00:00:00:00:00:00

----------------------------------------------------------------------------

#bytes #iterations BW peak[MB/sec] BW average[MB/sec] MsgRate[Mpps]

65536 1000 2250.38 2250.36 0.036006

----------------------------------------------------------------------------

ANMERKUNG

Wenn bei Latenzanwendungen (Senden/Schreiben) die Perftest-Version aktuell ist (z. B. perftest-3.0-0.21.g21dc344.x86_64.rpm

), verwenden

Sie den unterstützten Wert für die Inline-Größe:

0-128

.

Konfigurieren von NFS-RDMA

NFS-RDMA für iWARP umfasst sowohl Server- als auch

Client-Konfigurationsschritte.

So konfigurieren Sie den NFS-Server:

1.

Nehmen Sie in der Datei

/etc/exports

für die Verzeichnisse, die Sie über

NFS-RDMA auf dem Server exportieren müssen, den folgenden Eintrag vor:

/tmp/nfs-server *(fsid=0,async,insecure,no_root_squash)

Stellen Sie sicher, dass Sie für jedes Verzeichnis, das Sie exportieren, eine andere Dateisystemidentifizierung (FSID) verwenden.

2.

Laden Sie das Modul „svcrdma“ wie folgt:

#

modprobe svcrdma

3.

Starten Sie den NFS-Dienst ohne Fehler:

#

service nfs start

109 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Linux

4.

Schließen Sie den Standard-RDMA-Port 20049 wie folgt in diese Datei ein:

#

echo rdma 20049 > /proc/fs/nfsd/portlist

5.

Um lokale Verzeichnisse für zu mountende NFS-Clients verfügbar zu machen, führen Sie den Befehl exportfs

wie folgt aus:

#

exportfs -v

So konfigurieren Sie den NFS-Client:

ANMERKUNG

Dieses Verfahren für die NFS-Client-Konfiguration gilt auch für RoCE.

1.

Laden Sie das Modul „xprtrdma“ wie folgt:

#

modprobe xprtrdma

2.

Mounten Sie das NFS-Dateisystem so, wie es sich für Ihre Version eignet:

Für NFS Version 3:

#

mount -o rdma,port=20049 192.168.2.4:/tmp/nfs-server /tmp/nfs-client

Für NFS Version 4:

#

mount -t nfs4 -o rdma,port=20049 192.168.2.4:/ /tmp/nfs-client

ANMERKUNG

Der Standard-Port für NFSoRDMA ist 20049. Jedoch funktioniert auch jeder andere Port, der am NFS-Client ausgerichtet wird.

3.

Überprüfen Sie, dass das Dateisystem gemounted wurde. Führen Sie dazu den Befehl mount

aus. Stellen Sie sicher, dass der RDMA-Port und die

Dateisystemversionen korrekt sind.

#

mount |grep rdma

110 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Linux

iWARP RDMA-Kernunterstützung auf SLES 12 SP3, RHEL 7.4 und OFED 4.8

x

Die Benutzerbereichsbibliothek „libqedr“ ist Teil des rdma-Kerns. Die vorkonfigurierte libqedr bietet jedoch keine Unterstützung für SLES 12 SP3,

RHEL 7.4 und OFED 4.8

x

. Für diese BS-Versionen ist daher ein Patch erforderlich, um den iWARP-RDMA-Kern zu unterstützen.

So wenden Sie das Patch für den iWARP-RDMA-Kern an:

1.

Um die aktuelle RDMA-Kern-Quelldatei herunterzuladen, führen Sie den folgenden Befehl aus:

#

git clone https://github.com/linux-rdma/rdma-core.git

2.

Installieren Sie alle BS-abhängigen Pakete/Bibliotheken, wie in der Infodatei zum

RDMA-Kern

beschrieben.

Führen Sie bei RHEL und CentOS den folgenden Befehl aus:

#

yum install cmake gcc libnl3-devel libudev-devel make pkgconfig valgrind-devel

Installieren Sie für SLES 12 SP3 (ISO/SDK-Kit) die folgenden RPMs: cmake-3.5.2-18.3.x86_64.rpm

(OS ISO) libnl-1_1-devel-1.1.4-4.21.x86_64.rpm

(SDK ISO) libnl3-devel-3.2.23-2.21.x86_64.rpm

(SDK ISO)

3.

Um den RDMA-Kern zu erstellen, führen Sie die folgenden Befehle aus:

#

cd

<rdma-core-path>/r

dma-core-master/

#

./build.sh

4.

Um alle OFED-Anwendungen im aktuellen RDMA-Kern-Masterspeicherort auszuführen, führen Sie den folgenden Befehl aus:

#

ls

<

rdma-core-master>/

build/bin

cmpost ib_acme ibv_devinfo ibv_uc_pingpong iwpmd rdma_client rdma_xclient rping ucmatose umad_compile_test cmtime ibv_asyncwatch ibv_rc_pingpong ibv_ud_pingpong mckey rdma-ndd rdma_xserver rstream udaddy umad_reg2 ibacm ibv_devices ibv_srq_pingpong ibv_xsrq_pingpong rcopy rdma_server riostream srp_daemon udpong umad_register2

Führen Sie die Anwendungen aus dem aktuellen

RDMA-Kern-Masterspeicherort aus. Zum Beispiel:

#

./rping -c -v -C 5 -a 192.168.21.3

ping data: rdma-ping-0: ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqr ping data: rdma-ping-1: BCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrs

111 AH0054602-01 F

7–iWARP-Konfiguration

Konfigurieren von iWARP unter Linux ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT...

5.

Um Inbox-OFED-Anwendungen auszuführen, z. B. perftest oder andere

InfiniBand-Anwendungen, führen Sie den folgenden Befehl aus, um den

Bibliothekspfad für iWARP festzulegen:

#

export

LD_LIBRARY_PATH=/builds/rdma-core-path-iwarp/rdma-core-master/build/lib

Zum Beispiel:

#

/usr/bin/rping -c -v -C 5 -a 192.168.22.3 (or) rping -c -v -C 5 -a

192.168.22.3

ping data: rdma-ping-0: ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqr ping data: rdma-ping-1: BCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrs ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT...

112 AH0054602-01 F

8

iSER-Konfiguration

In diesem Kapitel wird das Verfahren für die Konfiguration von iSCSI-Erweiterungen für RDMA (iSER) für Linux (RHEL und SLES) und

ESXi 6.7 beschrieben, darunter:

Vor dem Start

Konfigurieren von iSER für RHEL

“Konfigurieren von iSER für SLES 12” auf Seite 117

“Verwenden von iSER mit iWARP auf RHEL und SLES” auf Seite 118

“Optimieren der Linux-Leistung” auf Seite 120

“Konfigurieren von iSER auf SLES 6.7” auf Seite 121

Vor dem Start

Berücksichtigen Sie im Rahmen der iSER-Konfigurationsvorbereitung Folgendes:

 iSER wird nur in Inbox-OFED-Umgebungen und nur für die folgenden

Betriebssysteme unterstützt:

 RHEL 7.1 und 7.2

 SLES 12 und 12 SP1

 Nach dem Anmelden an den Zielen oder während der Ausführung von

E/A-Datenverkehr kann das Entladen des Linux RoCE qedr-Treibers einen

Systemabsturz verursachen.

 Während der Ausführung von E/A kann die Durchführung von

Schnittstellentests (aus/ein) oder Kabelzugtests zu Treiberfehlern oder iSER-Modulfehlern führen, die einen Systemabsturz auslösen können. Falls dies der Fall ist, starten Sie das System neu.

113 AH0054602-01 F

8–iSER-Konfiguration

Konfigurieren von iSER für RHEL

Konfigurieren von iSER für RHEL

So konfigurieren Sie iSER für RHEL:

1.

Installieren Sie Inbox-OFED wie unter “RoCE-Konfiguration für RHEL” auf

Seite 84 beschrieben. Vorkonfigurierte OFEDs werden nicht für iSER

unterstützt, da das ib_isert-Modul nicht für die vorkonfigurierten OFED

3.18-2 GA/3.18-3 GA-Versionen verfügbar ist. Das inbox ib_isert-Modul funktioniert mit keiner der Out-of-box-OFED-Versionen.

2.

Entfernen Sie etwaig vorhandene FastLinQ-Treiber wie unter “Entfernen der

Linux-Treiber” auf Seite 10 beschrieben.

3.

Installieren Sie den neuesten FastLinQ-Treiber und die libqedr-Pakete wie in

“Installieren der Linux-Treiber mit RDMA” auf Seite 15 beschrieben.

4.

Laden Sie die RDMA-Dienste wie folgt:

systemctl start rdma modprobe qedr modprobe ib_iser modprobe ib_isert

5.

Stellen Sie sicher, dass alle RDMA- und iSER-Module auf die Initiator- und

Zielgeräte geladen wurden, indem Sie die Befehle lsmod | grep qed

und lsmod | grep iser

ausführen.

6.

Stellen Sie sicher, dass separate hca_id

-Instanzen vorhanden sind, indem

Sie den Befehl ibv_devinfo

eingeben, wie unter Schritt 6 auf Seite 86

beschrieben.

7.

Überprüfen Sie die RDMA-Verbindung auf dem Initiatorgerät und auf dem

Zielgerät.

a.

Führen Sie auf dem Initiatorgerät den folgenden Befehl aus:

rping -s -C 10 -v

b.

Führen Sie auf dem Zielgerät den folgenden Befehl aus:

rping -c -a 192.168.100.99 -C 10 -v

114 AH0054602-01 F

8–iSER-Konfiguration

Konfigurieren von iSER für RHEL

Abbildung 8-1

enthält ein Beispiel für einen erfolgreichen

RDMA-Ping-Befehl.

Abbildung 8-1. RDMA-Ping-Befehl erfolgreich

8.

Sie können ein Linux TCM-LIO-Ziel zum Testen von iSER verwenden. Das

Setup ist für alle iSCSI-Ziele gleich, mit der Ausnahme, dass Sie den Befehl enable_iser Boolean=true

auf den jeweiligen Portalen ausführen müssen. Die Portalinstanzen werden als

iser

in Abbildung 8-2 identifiziert.

Abbildung 8-2. iSER-Portal-Instanzen

9.

Installieren Sie die Linux iSCSI-Initiator-Dienstprogramme unter

Verwendung der yum install iscsi-initiator-utils

-Befehle.

a.

Um das iSER-Ziel zu ermitteln, führen Sie den Befehl iscsiadm

aus.

Zum Beispiel:

iscsiadm -m discovery -t st -p 192.168.100.99:3260

115 AH0054602-01 F

8–iSER-Konfiguration

Konfigurieren von iSER für RHEL b.

Um den Übermittlungsmodus in iSER zu ändern, führen Sie den

Befehl iscsiadm

aus. Zum Beispiel:

iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser

c.

Um eine Verbindung mit dem iSER-Ziel herzustellen oder sich dort anzumelden, führen Sie den Befehl iscsiadm

aus. Zum Beispiel:

iscsiadm -m node -l -p 192.168.100.99:3260 -T iqn.2015-06.test.target1

d.

Stellen Sie sicher, dass

Iface Transport

in der Zielverbindung

iser

lautet, wie unter

Abbildung 8-3 dargestellt. Führen Sie den Befehl

iscsiadm

aus. Beispiel:

iscsiadm -m session -P2

Abbildung 8-3. Iface-Transport bestätigt

116 AH0054602-01 F

8–iSER-Konfiguration

Konfigurieren von iSER für SLES 12 e.

Um zu überprüfen, ob ein neues iSCSI-Gerät vorhanden ist, wie unter

Abbildung 8-4 dargestellt, führen Sie den Befehl

lsscsi

aus.

Abbildung 8-4. Überprüfen auf neues iSCSI-Gerät

Konfigurieren von iSER für SLES 12

Da das TargetCLI auf SLES 12.

x

nicht „inbox“ lautet, müssen Sie das folgende

Verfahren ausführen.

Gehen Sie wie folgt vor, um iSER für SLES 12 zu konfigurieren:

1.

Um TargetCLI zu installieren, kopieren und installieren Sie die folgenden

RPM-Dateien aus dem ISO-Image (Speicherorte x86_64 und noarch): lio-utils-4.1-14.6.x86_64.rpm

python-configobj-4.7.2-18.10.noarch.rpm

python-PrettyTable-0.7.2-8.5.noarch.rpm

python-configshell-1.5-1.44.noarch.rpm

python-pyparsing-2.0.1-4.10.noarch.rpm

python-netifaces-0.8-6.55.x86_64.rpm python-rtslib-2.2-6.6.noarch.rpm

python-urwid-1.1.1-6.144.x86_64.rpm

targetcli-2.1-3.8.x86_64.rpm

2.

Bevor Sie TargetCLI starten, laden Sie sämtliche RoCE-Gerätetreiber und iSER-Module wie folgt:

#

modprobe qed

#

modprobe qede

#

modprobe qedr

#

modprobe ib_iser

(Initiator)

#

modprobe ib_isert

(Ziel)

3.

Bevor Sie iSER-Ziele konfigurieren, konfigurieren Sie NIC-Schnittstellen und

führen L2- und RoCE-Datenverkehr, wie unter Schritt 7 auf Seite 86

beschrieben.

117 AH0054602-01 F

8–iSER-Konfiguration

Verwenden von iSER mit iWARP auf RHEL und SLES

4.

Starten Sie das TargetCLI-Dienstprogramm und konfigurieren Sie Ihre Ziele auf dem iSER-Zielsystem.

ANMERKUNG

Die TargetCLI-Versionen in RHEL und SLES unterscheiden sich.

Stellen Sie sicher, dass Sie die richtigen Backstores für die

Konfiguration Ihrer Ziele verwenden:

 RHEL verwendet

ramdisk

.

 SLES verwendet

rd_mcp

.

Verwenden von iSER mit iWARP auf RHEL und

SLES

Konfigurieren Sie den iSER-Initiator und das Ziel für die Zusammenarbeit mit iWARP auf ähnliche Weise wie RoCE. Sie können verschiedene Verfahren für die

Erstellung eines Linux-IO-Ziels (LIO

) verwenden. Eines dieser Verfahren wird in diesem Abschnitt aufgeführt. Sie werden aufgrund der Version möglicherweise

Unterschiede in der targetcli-Konfiguration in SLES 12 und RHEL 7.

x

feststellen.

So konfigurieren Sie ein Ziel für LIO:

1.

Erstellen Sie ein LIO-Ziel mithilfe des targetcli-Dienstprogramms. Geben Sie den folgenden Befehl aus:

#

targetcli

targetcli shell version 2.1.fb41

Copyright 2011-2013 by Datera, Inc and others.

For help on commands, type

' help

'

.

2.

Geben Sie die folgenden Befehle aus:

/>

/backstores/ramdisk create Ramdisk1-1 1g nullio=true

/>

/iscsi create iqn.2017-04.com.org.iserport1.target1

/> /

iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/luns create /backstores/ramdisk/Ramdisk1-1

/> /

iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/portals/ create 192.168.21.4 ip_port=3261

/>

/iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/portals/192.168.21.4:3261 enable_iser boolean=true

/>

/iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1 set attribute authentication=0 demo_mode_write_protect=0 generate_node_acls=1 cache_dynamic_acls=1

/>

saveconfig

118 AH0054602-01 F

8–iSER-Konfiguration

Verwenden von iSER mit iWARP auf RHEL und SLES

Abbildung 8-5

zeigt die Zielkonfiguration für LIO.

Abbildung 8-5. LIO-Zielkonfiguration

So konfigurieren Sie einen Initiator für iWARP:

1.

Um das iSER-LIO-Ziel über Port 3261 zu ermitteln, führen Sie den Befehl iscsiadm

wie folgt aus:

#

iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser

192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1

2.

Ändern Sie den Übermittlungstyp wie folgt in iser

:

#

iscsiadm -m node -o update -T iqn.2017-04.com.org.iserport1.target1 -n iface.transport_name -v iser

3.

Melden Sie sich über Port 3261 beim Ziel an:

#

iscsiadm -m node -l -p 192.168.21.4:3261 -T iqn.2017-04.com.org.iserport1.target1

Logging in to [iface: iser, target: iqn.2017-04.com.org.iserport1.target1, portal: 192.168.21.4,3261] (multiple)

Login to [iface: iser, target: iqn.2017-04.com.org.iserport1.target1, portal:

192.168.21.4,3261] successful.

4.

Stellen Sie sicher, dass diese LUNs sichtbar sind, indem Sie den folgenden

Befehl ausführen:

#

lsscsi

[1:0:0:0] storage HP P440ar 3.56 -

[1:1:0:0] disk HP LOGICAL VOLUME 3.56 /dev/sda

[6:0:0:0] cd/dvd hp DVD-ROM DUD0N UMD0 /dev/sr0

[7:0:0:0] disk LIO-ORG Ramdisk1-1 4.0 /dev/sdb

119 AH0054602-01 F

8–iSER-Konfiguration

Optimieren der Linux-Leistung

Optimieren der Linux-Leistung

Berücksichtigen Sie die folgenden Verbesserungen der

Linux-Leistungskonfiguration, wie in diesem Abschnitt beschrieben.

Konfigurieren von CPUs in den Modus für die maximale Leistung

Konfigurieren von Kernel-sysctl-Einstellungen

Konfigurieren der IRQ-Affinitätseinstellungen

Konfigurieren der Blockgerätestaffelung

Konfigurieren von CPUs in den Modus für die maximale

Leistung

Setzen Sie „CPU Scaling Governor auf“ „Performance“ (Leistung), indem Sie das folgende Script verwenden, um alle CPUs in den Modus für die maximale

Leistung zu setzen: for CPUFREQ in

/sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f

$CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done

Überprüfen Sie, ob alle CPU-Kerne in den Modus für die maximale Leistung gesetzt wurden, indem Sie folgenden Befehl ausführen:

cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor

Konfigurieren von Kernel-sysctl-Einstellungen

Legen Sie die kernel sysctl-Einstellungen wie folgt fest: sysctl -w net.ipv4.tcp_mem="4194304 4194304 4194304" sysctl -w net.ipv4.tcp_wmem="4096 65536 4194304" sysctl -w net.ipv4.tcp_rmem="4096 87380 4194304" sysctl -w net.core.wmem_max=4194304 sysctl -w net.core.rmem_max=4194304 sysctl -w net.core.wmem_default=4194304 sysctl -w net.core.rmem_default=4194304 sysctl -w net.core.netdev_max_backlog=250000 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_adv_win_scale=1 echo 0 > /proc/sys/vm/nr_hugepages

120 AH0054602-01 F

8–iSER-Konfiguration

Konfigurieren von iSER auf SLES 6.7

Konfigurieren der IRQ-Affinitätseinstellungen

In diesem Beispiel werden die CPU-Kerne 0, 1, 2 und 3 auf Unterbrechungsanfrage

(IRQ) XX, YY, ZZ bzw. XYZ gesetzt. Führen Sie diese Schritte für jede IRQ aus, die einem Port zugewiesen ist (Standard: acht Warteschlangen je Port).

systemctl disable irqbalance systemctl stop irqbalance cat /proc/interrupts | grep qedr zeigt die IRQs, die den einzelnen

Port-Warteschlangen zugewiesen sind.

echo 1 > /proc/irq/XX/smp_affinity_list echo 2 > /proc/irq/YY/smp_affinity_list echo 4 > /proc/irq/ZZ/smp_affinity_list echo 8 > /proc/irq/XYZ/smp_affinity_list

Konfigurieren der Blockgerätestaffelung

Legen Sie die Einstellungen für die Blockgerätestaffelung für die einzelnen iSCSI-Geräte oder -Ziele fest: echo noop > /sys/block/sdd/queue/scheduler echo 2 > /sys/block/sdd/queue/nomerges echo 0 > /sys/block/sdd/queue/add_random echo 1 > /sys/block/sdd/queue/rq_affinity

Konfigurieren von iSER auf SLES 6.7

Dieser Abschnitt enthält Informationen für die Konfiguration von iSER für

VMware ESXi 6.7.

Vor dem Start

Stellen Sie sicher, dass folgende Voraussetzungen erfüllt sind, bevor Sie iSER für

ESXi 6.7 konfigurieren:

 CNA-Paket mit NIC- und RoCE-Treibern auf dem ESXi 6.7-System installiert, und Geräte sind aufgelistet. Geben Sie zum Anzeigen von

RDMA-Geräten folgenden Befehl ein:

esxcli rdma device list

Name Driver State MTU Speed Paired Uplink Description

------- ------- ------ ---- ------- ------------- -------------------------------------vmrdma0 qedrntv Active 1024 40 Gbps vmnic4 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1 qedrntv Active 1024 40 Gbps vmnic5 QLogic FastLinQ QL45xxx RDMA Interface

[root@localhost:~] esxcfg-vmknic -l

121 AH0054602-01 F

8–iSER-Konfiguration

Konfigurieren von iSER auf SLES 6.7

Interface Port Group/DVPort/Opaque Network IP Family IP Address

Netmask Broadcast MAC Address MTU TSO MSS Enabled Type

NetStack vmk0 Management Network IPv4 172.28.12.94

255.255.240.0 172.28.15.255 e0:db:55:0c:5f:94 1500 65535 true DHCP defaultTcpipStack vmk0 Management Network IPv6 fe80::e2db:55ff:fe0c:5f94

64 e0:db:55:0c:5f:94 1500 65535 true STATIC, PREFERRED defaultTcpipStack

 Das iSER-Ziel wurde zur Kommunikation mit dem iSER-Initiator konfiguriert.

Konfigurieren von iSER für ESXi 6.7

So konfigurieren Sie iSER für ESXi 6.7:

1.

Fügen Sie iSER-Geräte hinzu, indem Sie die folgenden Befehle ausführen:

esxcli rdma iser add esxcli iscsi adapter list

Adapter Driver State UID Description

------- ------ ------- ------------- ------------------------------------vmhba64 iser unbound iscsi.vmhba64 VMware iSCSI over RDMA (iSER) Adapter vmhba65 iser unbound iscsi.vmhba65 VMware iSCSI over RDMA (iSER) Adapter

2.

Deaktivieren Sie die Firewall wie folgt.

esxcli network firewall set --enabled=false esxcli network firewall unload vsish -e set /system/modules/iscsi_trans/loglevels/iscsitrans 0 vsish -e set /system/modules/iser/loglevels/debug 4

3.

Erstellen Sie eine standardmäßige vSwitch VMkernel Port-Gruppe und weisen Sie das IP zu:

esxcli network vswitch standard add -v vSwitch_iser1 esxcfg-nics -l

Name PCI Driver Link Speed Duplex MAC Address MTU Description vmnic0 0000:01:00.0 ntg3 Up 1000Mbps Full e0:db:55:0c:5f:94 1500 Broadcom

Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic1 0000:01:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:95 1500 Broadcom

Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic2 0000:02:00.0 ntg3 Down 0Mbps Half e0:db:55:0c:5f:96 1500 Broadcom

Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic3 0000:02:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:97 1500 Broadcom

Corporation NetXtreme BCM5720 Gigabit Ethernet vmnic4 0000:42:00.0 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a2 1500 QLogic Corp.

QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter vmnic5 0000:42:00.1 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a3 1500 QLogic Corp.

QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter

122 AH0054602-01 F

8–iSER-Konfiguration

Konfigurieren von iSER auf SLES 6.7

esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1 esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1

esxcli network ip interface add -i vmk1 -p "rdma_group1" esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.0 -t static esxcfg-vswitch -p "rdma_group1" -v 4095 vSwitch_iser1 esxcli iscsi networkportal add -n vmk1 -A vmhba65 esxcli iscsi networkportal list esxcli iscsi adapter get -A vmhba65 vmhba65

Name: iqn.1998-01.com.vmware:localhost.punelab.qlogic.com qlogic.org qlogic.com mv.qlogic.com:1846573170:65

Alias: iser-vmnic5

Händler: VMware

Modell: VMware iSCSI over RDMA (iSER) Adapter

Beschreibung: VMware iSCSI over RDMA (iSER) Adapter

Serial Number: vmnic5

Hardware Version:

Asic Version:

Firmware-Version:

Option Rom Version:

Driver Name: iser-vmnic5

Driver Version:

TCP Protocol Supported: false

Bidirectional Transfers Supported: false

Maximum Cdb Length: 64

Can Be NIC: true

Is NIC: true

Is Initiator: true

Is Target: false

Using TCP Offload Engine: true

Using ISCSI Offload Engine: true

4.

Fügen Sie das Ziel wie folgt zum iSER-Initiator hinzu:

esxcli iscsi adapter target list esxcli iscsi adapter discovery sendtarget add -A vmhba65 -a 192.168.10.11

esxcli iscsi adapter target list

Adapter Target Alias Discovery Method Last Error

------- ------------------------ ----- ---------------- ---------vmhba65 iqn.2015-06.test.target1 SENDTARGETS No Error esxcli storage core adapter rescan --adapter vmhba65

123 AH0054602-01 F

8–iSER-Konfiguration

Konfigurieren von iSER auf SLES 6.7

5.

Listen Sie das angehängte Ziel wie folgt auf:

esxcfg-scsidevs -l

mpx.vmhba0:C0:T4:L0

Device Type: CD-ROM

Size: 0 MB

Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0)

Multipath Plugin: NMP

Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0

Devfs Path: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0

Händler: TSSTcorp Model: DVD-ROM SN-108BB Revis: D150

SCSI Level: 5 Is Pseudo: false Status: on

Is RDM Capable: false Is Removable: true

Is Local: true Is SSD: false

Other Names:

vml.0005000000766d686261303a343a30

VAAI Status: unsupported naa.6001405e81ae36b771c418b89c85dae0

Device Type: Direct-Access

Size: 512 MB

Display Name: LIO-ORG iSCSI Disk (naa.6001405e81ae36b771c418b89c85dae0)

Multipath Plugin: NMP

Console Device: /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0

Devfs Path: /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0

Händler: LIO-ORG Model: ram1 Revis: 4.0

SCSI Level: 5 Is Pseudo: false Status: degraded

Is RDM Capable: true Is Removable: false

Is Local: false Is SSD: false

Other Names:

vml.02000000006001405e81ae36b771c418b89c85dae072616d312020

VAAI Status: supported naa.690b11c0159d050018255e2d1d59b612

124 AH0054602-01 F

9

iSCSI-Konfiguration

In diesem Abschnitt finden Sie die folgenden Informationen zur iSCSI-Konfiguration:

iSCSI-Start

“Konfigurieren des iSCSI-Startvorgangs” auf Seite 132

“Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs” auf Seite 144

“iSCSI-Offload unter Windows Server” auf Seite 149

“iSCSI-Offload in Linux-Umgebungen” auf Seite 159

“Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4” auf Seite 176

ANMERKUNG

Einige iSCSI-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert. Weitere Details finden Sie unter

Anhang D

Einschränkungen bei Merkmalen und Funktionen .

iSCSI-Start

Gigabit Ethernet (GbE)-Adapter der Reihe QLogic4

xxxx

unterstützen die iSCSI-Startfunktion zur Aktivierung des Netzwerkstarts von Betriebssystemen auf

Systemen ohne Festplatte. Die iSCSI-Startfunktion ermöglicht den

Remote-Betriebssystemstart in Windows-, Linux- oder VMware-Umgebungen

über eine iSCSI-Zielmaschine über ein Standard-IP-Netzwerk.

In diesem Abschnitt werden die folgenden iSCSI-Startinformationen behandelt:

Einrichten von iSCSI-Boot

Adapterkonfiguration für den UEFI-Boot-Modus

Bei Windows- und Linux-Betriebssystemen kann der Start über iSCSI mit

UEFI iSCSI HBA

(Offload-Pfad mit QLogic-Offload-iSCSI-Treiber) konfiguriert werden.

Diese Option wird über das Boot-Protokoll unter der Konfiguration auf der

Port-Ebene festgelegt.

125 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Start

Einrichten von iSCSI-Boot

Das Einrichten von iSCSI-Boot umfasst:

Auswählen des bevorzugten iSCSI-Startmodus

Konfigurieren des iSCSI-Ziels

Konfigurieren der iSCSI-Bootparameter

Auswählen des bevorzugten iSCSI-Startmodus

Die Startmodusoption wird unter

iSCSI Configuration

(iSCSI-Konfiguration)

( Abbildung 9-1

) des Adapter aufgeführt und die Einstellung ist Port-spezifisch.

Weitere Informationen zum Zugreifen auf das Konfigurationsmenü auf

Geräteebene unter UEFI HII finden Sie im OEM-Benutzerhandbuch.

Abbildung 9-1. Systemeinrichtung: NIC-Konfiguration

ANMERKUNG

Der Boot-Vorgang „Booten über SAN“ wird nur im NPAR-Modus unterstützt und UEFI konfiguriert, nicht jedoch im Legacy-BIOS.

126 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Start

Konfigurieren des iSCSI-Ziels

Das Konfigurieren des iSCSI-Ziels erfolgt bei den Zielen der verschiedensten

Hersteller auf unterschiedliche Weise. Informationen über das Konfigurieren des iSCSI-Ziels finden Sie in der vom Hersteller mitgelieferten Dokumentation.

So konfigurieren Sie das iSCSI-Ziel:

1.

Wählen Sie das entsprechende Verfahren auf Basis Ihres iSCSI-Ziels aus:

 Erstellen Sie entweder ein iSCSI-Ziel für Ziele wie SANBlaze

® oder IET

®

.

 Oder erstellen Sie ein virtuelles Laufwerk oder ein Volume wie z. B.

EqualLogic

®

oder EMC

®

.

2.

Erstellen Sie ein virtuelles Laufwerk.

3.

Zuweisen des virtuellen Laufwerks an das in Schritt 1 eingerichtete virtuelle

Laufwerk.

4.

Verknüpfen eines iSCSI-Initiators mit dem iSCSI-Ziel. Stellen Sie die folgenden Informationen zusammen:

 iSCSI-Zielname

 TCP-Portnummer

 Logische iSCSI-Einheitennummer (LUN)

 Qualifizierter iSCSI-Initiatorname (IQN)

 CHAP-Authentifizierungsdetails

5.

Nach dem Konfigurieren des iSCSI-Ziels verfügen Sie über die folgenden

Informationen:

 Ziel IQN

 Ziel-IP-Adresse

 TCP-Portnummer des Ziels

 LUN des Ziels

 Initiator-IQN

 CHAP-ID und CHAP-Kennwort

Konfigurieren der iSCSI-Bootparameter

Konfigurieren Sie die QLogic iSCSI-Bootsoftware entweder auf statische oder auf dynamische Konfiguration. Für Informationen zu den im Fenster „General

Parameters“ (Allgemeine Parameter) verfügbaren Konfigurationsoptionen finden

Sie weitere Informationen in der Tabelle Tabelle 9-1 . Hier werden die Parameter

für IPv4 und IPv6 aufgeführt. Parameter, die nur für IPv4 bzw. IPv6 gelten, sind entsprechend gekennzeichnet.

127 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Start

ANMERKUNG

Die Verfügbarkeit des iSCSI-Startvorgangs für IPv6 ist plattform- und geräteabhängig.

Tabelle 9-1. Konfigurationsoptionen

Option Beschreibung

TCP/IP parameters via DHCP

Diese Option gilt nur für IPv4. Legt fest, ob die iSCSI-Boot-Host-Software die IP-Adresse über DHCP (

Enabled

(Aktiviert)) erhält oder eine statische IP-Konfiguration verwendet

(

Disabled

(Deaktiviert)). iSCSI parameters via DHCP

Legt fest, ob die iSCSI-Start-Host-Software die Parameter des iSCSI-Ziels über DHCP (

Enabled

(Aktiviert)) oder über eine statische Konfiguration (

Disabled

(Deaktiviert)) erhält. Die statischen Informationen werden auf der Seite „iSCSI Initiator

Parameters Configuration“ (Konfiguration der Parameter für iSCSI-Initiator) eingegeben.

CHAP Authentication

(CHAP-Authentifizierung) legt fest, ob die iSCSI-Boothost-Software eine

CHAP-Authentifizierung für den Verbindungsaufbau zum iSCSI-Ziel verwendet. Wenn

CHAP Authentication

(CHAP-Authentifizierung) aktiviert ist, werden CHAP-ID und

CHAP-Kennwort auf der Seite „iSCSI Initiator Parameters

Configuration“ (Konfiguration der Parameter für iSCSI-Initiator) eingegeben.

IP Version

(IP-Version)

DHCP Request Timeout

(Zeitüberschreitung der

DHCP-Anforderung)

Target Login Timeout

(Zielanmeldezeitüberschreitung)

DHCP Vendor ID

Diese Option gilt nur für IPv6. Schaltet zwischen

IPv4

und

IPv6 um. Wenn Sie von einer Protokollversion zur anderen wechseln, gehen alle IP-Einstellungen verloren.

Sie können einen maximalen Wartezeitrahmen in Sekunden angeben, in dem eine DHCP-Anfrage erstellt und beantwortet werden muss.

Sie können einen maximalen Wartezeitrahmen in Sekunden angeben, in dem der Initiator die Zielanmeldung abgeschlossen haben muss.

Steuert, wie die iSCSI-Start-Host-Software bei DHCP das Feld

Vendor Class ID

(Lieferantenklassen-ID) interpretiert. Wenn das Feld

Vendor Class ID

(Lieferantenklassen-ID) im DHCP

Offer Packet dem Wert in diesem Feld entspricht, sucht die iSCSI-Start-Host-Software in den Feldern „DHCP Option 43“ nach den angeforderten iSCSI-Start-Erweiterungen. Bei deaktiviertem DHCP muss kein Wert festgelegt werden.

128 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Start

Adapterkonfiguration für den UEFI-Boot-Modus

So konfigurieren Sie den Boot-Modus:

1.

Starten Sie das System neu.

2.

Rufen Sie das Menü „System Utilities“ (Systemdienstprogramme)

(

Abbildung 9-2 ) auf.

ANMERKUNG

„Booten über SAN“ wird nur in UEFI-Umgebungen unterstützt. Stellen

Sie sicher, dass „UEFI“ als System-Startoption und nicht „Legacy“ eingestellt ist.

Abbildung 9-2. Systemeinrichtung: Starteinstellungen

129 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Start

3.

Wählen Sie im „System Setup“ (Systemeinrichtung) unter „Device Settings“

(Geräteeinstellungen) das QLogic-Gerät (

Abbildung 9-3

) aus. Weitere

Informationen zum Zugriff auf das PCI-Geräte-Konfigurationsmenü finden

Sie im OEM-Benutzerhandbuch.

Abbildung 9-3. Systemeinrichtung: Konfigurationsdienstprogramm für die

Geräteeinstellungen

130 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Start

4.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Option

NIC Configuration

(NIC-Konfiguration) ( Abbildung 9-4 ) aus und

drücken dann auf ENTER (Eingabe).

Abbildung 9-4. Auswählen der NIC-Konfiguration

131 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

5.

Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration)

(

Abbildung 9-5 ) die Option

Boot Protocol

(Boot-Protokoll) aus, und drücken

Sie dann auf die EINGABETASTE, um

UEFI iSCSI HBA

auszuwählen

(dafür ist der NPAR-Modus erforderlich).

Abbildung 9-5. Systemeinrichtung: NIC-Konfiguration, Boot-Protokoll

6.

Fahren Sie mit einer der folgenden Konfigurationsoptionen fort:

“Konfigurieren einer statischen iSCSI-Boot-Konfiguration” auf

Seite 133

“Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration” auf

Seite 141

Konfigurieren des iSCSI-Startvorgangs

Die folgenden iSCSI-Start-Konfigurationsoptionen sind verfügbar:

Konfigurieren einer statischen iSCSI-Boot-Konfiguration

Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration

Aktivieren der CHAP-Authentifizierung

132 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

Konfigurieren einer statischen iSCSI-Boot-Konfiguration

In einer statischen Konfiguration müssen Sie die folgenden Daten eingeben:

 System-IP-Adresse

 System-Initiator IQN

Zielparameter (abrufbar über “Konfigurieren des iSCSI-Ziels” auf Seite 127

)

Informationen über Konfigurationsoptionen finden Sie unter

Tabelle 9-1 auf

Seite 128 .

So konfigurieren Sie die iSCSI-Boot-Parameter in einer statischen

Konfiguration:

1.

Wählen Sie auf der Seite

Main Configuration

(Hauptkonfiguration) die

Option

iSCSI Configuration

(iSCSI-Konfiguration) ( Abbildung 9-6

) aus und drücken Sie dann auf „ENTER“ (Eingabe).

Abbildung 9-6. Systemeinrichtung: iSCSI-Konfiguration

133 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

2.

Wählen Sie auf der Seite „iSCSI Configuration“ (iSCSI-Konfiguration) die

Option

iSCSI General Parameters

(Allgemeine iSCSI-Parameter)

(

Abbildung 9-7 ) aus und drücken dann auf ENTER (Eingabe).

Abbildung 9-7. Systemeinrichtung: Auswählen allgemeiner Parameter

3.

Drücken Sie auf der Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter) (

Abbildung 9-8

) auf die Tasten UP ARROW (Pfeil nach oben) und DOWN ARROW (Pfeil nach unten), um einen Parameter auszuwählen. Drücken Sie anschließend auf ENTER (Eingabe), um die folgenden Werte auszuwählen oder einzugeben:

TCP/IP Parameters via DHCP

(TCP/IP-Parameter über DHCP):

Disabled (Deaktiviert)

iSCSI Parameters via DHCP

(iSCSI-Parameter über DHCP):

Disabled (Deaktiviert)

CHAP Authentication

(CHAP-Authentifizierung): Nach Bedarf

IP Version

(IP-Version): Nach Bedarf (IPv4 oder IPv6)

CHAP Mutual Authentication

(Gegenseitige

CHAP-Authentifizierung): Nach Bedarf

DHCP Vendor ID

(DHCP-Anbieter-ID): Für statische Konfigurationen nicht zutreffend

HBA Boot Mode

(HBA-Boot-Modus): Enabled (Aktiviert)

134 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

Virtual LAN ID

(Virtuelle LAN-ID): Standardwert oder nach Bedarf

Virtual LAN Mode

(Virtueller LAN-Modus): Disabled (Deaktiviert)

Abbildung 9-8. Systemeinrichtung: Allgemeine iSCSI-Parameter

4.

Kehren Sie zur Seite „iSCSI Configuration“ (iSCSI-Konfiguration) zurück und drücken Sie auf die Taste ESC.

135 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

5.

Wählen Sie die Option

iSCSI Initiator Parameters

(iSCSI-Initiatorparameter) ( Abbildung 9-9 ) aus und drücken Sie ENTER

(Eingabe).

Abbildung 9-9. Systemeinrichtung: Auswählen von iSCSI Initiator-Parametern

6.

Wählen Sie auf der Seite „iSCSI Initiator Parameter“

(iSCSI-Initiatorparameter) ( Abbildung 9-10 ) die folgenden Parameter aus

und geben Sie einen Wert für jeden Parameter ein:

IPv4* Address (IPv4*-Adresse)

Teilnetzmaske

IPv4* Default Gateway (IPv4*-Standard-Gateway)

IPv4* Primary DNS (Primärer IPv4*-DNS)

IPv4* Secondary DNS (Sekundärer IPv4*-DNS)

iSCSI Name (iSCSI-Name)

. Dieser Name entspricht dem vom

Client-System zu verwendenden Namen des iSCSI-Initiators.

CHAP ID (CHAP-ID)

CHAP Secret (CHAP-Geheimschlüssel)

136 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

ANMERKUNG

Beachten Sie die folgenden für die vorgenannten Elemente mit einem

Sternchen (*):

 Die Bezeichnung ändert sich auf Basis der auf der Seite „iSCSI

General Parameters“ (Allgemeine iSCSI-Parameter)

( Abbildung 9-8 auf Seite 135 ) eingestellten IP-Version in

IPv6

oder

IPv4

(Standardeinstellung).

 Geben Sie die IP-Adresse ein. Achten Sie dabei auf die korrekte

Eingabe. Die IP-Adresse wird nicht auf Fehler im Hinblick auf

Dopplungen oder falsche Zuweisungen zu einem Segment oder

Netzwerk geprüft.

Abbildung 9-10. Systemeinrichtung: iSCSI-Initiatorparameter

7.

Kehren Sie zur Seite „iSCSI Configuration“ (iSCSI-Konfiguration) zurück und drücken Sie auf die Taste ESC.

137 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

8.

Wählen Sie die Option

iSCSI First Target Parameters

(Erste

iSCSI-Zielparameter) ( Abbildung 9-11 ) aus und drücken Sie ENTER

(Eingabe).

Abbildung 9-11. Systemeinrichtung: Auswählen der ersten iSCSI-Zielparameter

9.

Setzen Sie auf der Seite „iSCSI First Target Parameters“ (Erste iSCSI-Zielparameter) die Option

Connect

(Verbinden) für das iSCSI-Ziel auf

Enabled

(Aktiviert).

10. Geben Sie Werte für die folgenden Parameter für das iSCSI-Ziel ein und drücken Sie dann auf ENTER (Eingabe):

IPv4* Address (IPv4*-Adresse)

TCP-Port

Boot-LUN

iSCSI-Name:

CHAP ID (CHAP-ID)

138 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

CHAP Secret (CHAP-Geheimschlüssel)

ANMERKUNG

Für die vorgenannten Parameter mit einem Sternchen (*) ändert sich die Bezeichnung auf Basis der IP-Version, die auf der Seite „iSCSI

General Parameter“ (Allgemeine iSCSI-Parameter) festgelegt wurde, in

IPv6

oder

IPv4

(Standardeinstellung). Siehe Abbildung 9-12

.

Abbildung 9-12. Systemeinrichtung: Parameter für das erste iSCSI-Ziel

11.

Kehren Sie zur Seite „iSCSI Boot Configuration“ (iSCSI-Boot-Konfiguration) zurück und drücken Sie auf die Taste ESC.

139 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

12. Wenn Sie ein zweites iSCSI-Zielgerät konfigurieren möchten, wählen Sie

iSCSI Second Target Parameters

(Zweite iSCSI-Zielparameter)

(

Abbildung 9-13

) aus und geben Sie die Parameterwerte gemäß Schritt 10

ein. Fahren Sie ansonsten mit

Schritt 13 fort.

Abbildung 9-13. Systemeinrichtung: Parameter für das zweite iSCSI-Ziel

13. Drücken Sie einmal ESC und ein zweites Mal zum Beenden.

140 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

14. Klicken Sie zum Speichern der Änderungen auf

Yes

(Ja) oder folgen Sie den

OEM-Richtlinien zum Speichern der Konfiguration auf Geräteebene. Klicken

Sie beispielsweise auf

Yes

(Ja), um das Ändern der Einstellung zu bestätigen (

Abbildung 9-14

).

Abbildung 9-14. Systemeinrichtung: Speichern der iSCSI-Änderungen

15. Nachdem Sie alle Änderungen vorgenommen haben, starten Sie das

System neu, damit die Änderungen in die ausgeführte Konfiguration des

Adapters übernommen werden.

Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration

Stellen Sie bei einer dynamischen Konfiguration sicher, dass die IP-Adresse des

Systems und die Daten für Ziel/Initiator über einen DHCP-Server bereitgestellt

werden (siehe Konfiguration von IPv4 und IPv6 unter “Konfigurieren des

DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs” auf Seite 144

).

Alle Einstellungen für die folgenden Parameter werden ignoriert und müssen nicht gelöscht werden (mit Ausnahme des Initiator-iSCSI-Namens für IPv4, CHAP ID

(CHAP-ID) und den CHAP-Geheimschlüssel für IPv6):

 Initiator Parameters (Initiatorparameter)

 Erste Zielparameter oder zweite Zielparameter

141 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

Informationen über Konfigurationsoptionen finden Sie unter

Tabelle 9-1 auf

Seite 128 .

ANMERKUNG

Bei Verwendung eines DHCP-Servers werden die Einträge des

DNS-Servers durch die vom DHCP-Server bereitgestellten Werte

überschrieben. Dieses Überschreiben tritt selbst dann auf, wenn die lokal bereitgestellten Werte gültig sind und der DHCP-Server keine Daten über den DNS-Server zur Verfügung stellt. Wenn der DHCP-Server keine Daten

über den DNS-Server zur Verfügung stellt, werden die Werte sowohl für den primären als auch für den sekundären DNS-Server auf

0.0.0.0

eingestellt.

Wenn das Windows-Betriebssystem die Steuerung übernimmt, fragt der

Microsoft-iSCSI-Initiator die Parameter des iSCSI-Initiators ab und konfiguriert die entsprechenden Registrierungen statisch. Dabei werden die zuvor konfigurierten Werte immer überschrieben. Da der DHCP-Daemon in der Umgebung von Windows als Benutzerprozess ausgeführt wird, müssen alle TCP/IP-Parameter statisch festgelegt werden, bevor der Stapel in der iSCSI-Startumgebung aufgebaut wird.

Bei Verwendung von „DHCP Option 17“ werden die Daten über das Ziel vom

DHCP-Server bereitgestellt und als Initiator-iSCSI-Name wird der im Fenster

„Initiator Parameters“ (Initiator-Parameter) eingegebene Name verwendet. Wenn kein Wert ausgewählt wird, nimmt der Controller standardmäßig folgenden

Namen an: iqn.1995-05.com.qlogic.<11.22.33.44.55.66>.iscsiboot

Die Zeichenfolge

11.22.33.44.55.66

entspricht der MAC-Adresse des

Controllers. Bei Verwendung von „DHCP Option 43“ (nur IPv4) werden sämtliche

Einstellungen in den folgenden Fenstern ignoriert und müssen daher nicht gelöscht werden:

 Initiator Parameters (Initiatorparameter)

 First Target Parameters, or Second Target Parameters (Erste Zielparameter oder zweite Zielparameter)

So konfigurieren Sie die iSCSI-Boot-Parameter mithilfe einer dynamischen

Konfiguration:

 Legen Sie auf der Seite „iSCSI General Parameters“ (Allgemeine

iSCSI-Parameter) die folgenden Optionen fest, wie unter Abbildung 9-15

dargestellt:

TCP/IP Parameters via DHCP

(TCP/IP-Parameter über DHCP):

Enabled (Aktiviert)

iSCSI Parameters via DHCP

(iSCSI-Parameter über DHCP): Enabled

(Aktiviert)

142 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs

CHAP Authentication

(CHAP-Authentifizierung): Nach Bedarf

IP Version

(IP-Version): Nach Bedarf (IPv4 oder IPv6)

CHAP Mutual Authentication

(Gegenseitige

CHAP-Authentifizierung): Nach Bedarf

DHCP Vendor ID

(DHCP-Anbieter-ID): Nach Bedarf

HBA Boot Mode

(HBA-Boot-Modus): Disabled (Deaktiviert)

Virtual LAN ID

(Virtuelle LAN-ID): Nach Bedarf

Virtual LAN Boot Mode

(Virtueller LAN-Startmodus): Enabled

(Aktiviert)

Abbildung 9-15. Systemeinrichtung: Allgemeine iSCSI-Parameter

Aktivieren der CHAP-Authentifizierung

Stellen Sie sicher, dass die CHAP-Authentifizierung für das Ziel deaktiviert wurde.

So aktivieren Sie die CHAP-Authentifizierung:

1.

Gehen Sie zur Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter).

2.

Setzen Sie

CHAP Authentication

(Chap-Authentifizierung) auf

Enabled

(Aktiviert).

3.

Geben Sie im Fenster „Initiator Parameters“ (Initiatorparameter) die folgenden Werte ein:

CHAP ID

(CHAP-ID, bis zu 255 Zeichen)

143 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs

CHAP Secret

(CHAP-Geheimschlüssel, wenn Authentifizierung erforderlich ist; muss 12 bis 16 Zeichen lang sein)

4.

Drücken Sie auf ESC, um zur Seite „iSCSI Boot configuration“

(iSCSI-Boot-Konfiguration) zurückzukehren.

5.

Wählen Sie auf der Seite „iSCSI Boot configuration“

(iSCSI-Startkonfiguration) die Option

iSCSI First Target Parameters

(Erste iSCSI-Zielparameter) aus.

6.

Geben Sie in das Fenster „iSCSI First Target Parameters“ (Erste iSCSI-Zielparameter) Werte ein, die bei der Konfiguration des iSCSI-Ziels verwendet werden:

CHAP ID

(CHAP-ID; optional bei Zwei-Wege-CHAP)

CHAP Secret

(CHAP-Geheimschlüssel, optional bei

Zwei-Wege-CHAP, muss 12 bis 16 Zeichen enthalten)

7.

Drücken Sie auf ESC, um zur Seite „iSCSI Boot configuration“

(iSCSI-Boot-Konfiguration) zurückzukehren.

8.

Drücken Sie auf ESC und wählen Sie dann

Save Configuration

(Konfiguration speichern) aus.

Konfigurieren des DHCP-Servers zur

Unterstützung des iSCSI-Boot-Vorgangs

Bei dem DHCP-Server handelt es sich um eine optionale Komponente, die nur benötigt wird, wenn Sie eine Konfiguration für das dynamische Starten über iSCSI

einrichten (siehe “Konfigurieren einer dynamischen iSCSI-Boot-Konfiguration” auf

Seite 141 ).

Die Konfiguration des DHCP-Servers zur Unterstützung des iSCSI-Startvorgangs ist für IPv4 und IPv6 unterschiedlich.

DHCP-Konfigurationen für den iSCSI-Startvorgang bei IPv4

Konfigurieren des DHCP-Servers

Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4

Konfigurieren von VLANs für den iSCSI-Startvorgang

DHCP-Konfigurationen für den iSCSI-Startvorgang bei IPv4

DHCP beinhaltet eine Anzahl von Optionen, die Konfigurationsinformationen an den DHCP-Client übermitteln. Die QLogic-Adapter unterstützen die folgenden

DHCP-Konfigurationen für iSCSI-Boot:

DHCP Option 17, Root Path

DHCP Option 43, herstellerspezifische Informationen

144 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs

DHCP Option 17, Root Path

Mit Hilfe von Option 17 werden Informationen über das iSCSI-Ziel an den iSCSI-Client übermittelt.

Das Format für das Stammverzeichnis ist in IETC RFC 4173 definiert und lautet:

"iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":"<targetname>"

Tabelle 9-2 listet die DHCP Option 17-Parameter auf.

Tabelle 9-2. Definitionen der Parameter von „DHCP Option 17“

Parameter

"iscsi:"

<servername>

":"

<protocol>

<port>

<LUN>

<targetname>

Definition

eine festgelegte Zeichenfolge

Die IP-Adresse oder der vollständig qualifizierte Domänenname

(FQDN) des iSCSI-Ziels

Trennzeichen

IP-Protokoll für den Zugriff auf das iSCSI-Ziel. Da derzeit nur TCP unterstützt wird, lautet das Protokoll „6“.

Dem Protokoll zugeordnete Portnummer. Die

Standardportnummer für iSCSI lautet „3260“.

Die logische Einheitnummer (LUN), die auf dem iSCSI-Ziel verwendet werden soll. Der Wert der LUN muss im hexadezimalen

Format angegeben sein. Eine LUN mit einer ID OF 64 muss im

Parameter zu „Option 17“ des DHCP-Servers als 40 konfiguriert werden.

Der Zielname im IQN- oder EUI-Format. Details zu den IQN- und

EUI-Formaten finden Sie unter „RFC 3720“. Ein Beispiel für einen

IQN-Namen ist iqn.1995-05.com.QLogic:iscsi-target

.

DHCP Option 43, herstellerspezifische Informationen

DHCP Option 43 (herstellerspezifische Informationen) stellt dem iSCSI-Client mehr Konfigurationsoptionen zur Verfügung als DHCP Option 17. In dieser

Konfiguration werden drei zusätzliche Unteroptionen angeboten, die den

Initiator-IQN dem iSCSI-Boot-Client zuweisen und zusätzlich zwei iSCSI-Ziel-IQN bereitstellen, die zum Booten verwendet werden können. Das Format des iSCSI-Ziel-IQN ist mit dem Format von DHCP Option 17 identisch, beim iSCSI-Initiator-IQN handelt es sich einfach um den IQN des Initiators.

ANMERKUNG

DHCP Option 43 wird nur bei IPv4 unterstützt.

145 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs

Tabelle 9-3 listet die Unteroptionen für DHCP Option 43 auf.

Tabelle 9-3. Definitionen der Unteroption von DHCP Option 43

Unteroption

201

202

203

Definition

Informationen über das erste iSCSI-Ziel im Standardformat für das Stammverzeichnis:

"iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":

"<targetname>"

Informationen über das zweite iSCSI-Ziel im Standardformat für das Stammverzeichnis:

"iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":

"<targetname>" iSCSI-Initiator-IQN

Bei Verwendung der DHCP Option 43 sind umfangreichere Konfigurationsschritte vorzunehmen als bei DHCP Option 17, die Umgebung ist jedoch umfassender und es stehen mehr Konfigurationsoptionen zur Verfügung. Sie sollten die

DHCP Option 43 verwenden, wenn Sie eine dynamische iSCSI-Boot-Konfiguration ausführen.

Konfigurieren des DHCP-Servers

Konfigurieren Sie den DHCP-Server so, dass er entweder Option 16, 17 oder 43 unterstützt.

ANMERKUNG

Die Formate der DHCPv6-Option 16 und der Option 17 sind in RFC 3315 vollständig definiert.

Wenn Sie Option 43 verwenden, müssen Sie auch Option 60 konfigurieren.

Der Wert von Option 60 muss mit dem Wert für „DHCP Vendor ID“

übereinstimmen. Dieser Wert lautet „QLGC ISAN“, wie unter

iSCSI General

Parameter

(Allgemeine iSCSI-Parameter) auf der Seite „iSCSI Boot

Configuration“ (iSCSI-Startkonfiguration) angezeigt.

146 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs

Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4

Der DHCPv6-Server stellt eine Anzahl von Optionen zur Verfügung, darunter eine zustandslose oder zustandbehaftete IP-Konfiguration sowie Informationen für den

DHCPv6-Client. Die QLogic-Adapter unterstützen die folgenden

DHCP-Konfigurationen für iSCSI-Boot:

DHCPv6 Option 16, Vendor Class-Option

DHCPv6 Option 17, Herstellerspezifische Informationen

ANMERKUNG

Die DHCPv6-Standardoption „Root Path“ ist noch nicht verfügbar. QLogic empfiehlt für die Unterstützung des dynamischen iSCSI-Startvorgangs IPv6 die Verwendung von Option 16 oder Option 17.

DHCPv6 Option 16, Vendor Class-Option

DHCPv6 Option 16 (Vendor Class-Option) muss vorhanden sein und eine

Zeichenfolge enthalten, die mit dem konfigurierten Parameter „DHCP Vendor ID“

übereinstimmt. Der Wert „DHCP Vendor ID“ lautet „QLGC ISAN“, wie im Abschnitt

General Parameters

(Allgemeine Parameter) des Menüs

iSCSI Boot

Configuration

(iSCSI-Startkonfiguration) angezeigt.

Der Inhalt von Option 16 sollte

<2-byte length> <DHCP Vendor ID>

sein.

DHCPv6 Option 17, Herstellerspezifische Informationen

DHCPv6 Option 17 (herstellerspezifische Informationen) stellt dem iSCSI-Client weitere Konfigurationsoptionen zur Verfügung. In dieser Konfiguration werden drei zusätzliche Unteroptionen angeboten, die den Initiator-IQN dem iSCSI-Boot-Client zuweisen und zusätzlich zwei iSCSI-Ziel-IQN bereitstellen, die zum Booten verwendet werden können.

Tabelle 9-4 listet die Unteroptionen für DHCP Option 17 auf.

147 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs

Tabelle 9-4. Definitionen der Unteroption für DHCP Option 17

Unteroption Definition

201

202

Informationen über das erste iSCSI-Ziel im Standardformat für das Stammverzeichnis:

"iscsi:"[<Servername>]":"<Protokoll>":"<Port>":"<LUN> ":

"<targetname>"

Informationen über das zweite iSCSI-Ziel im Standardformat für das Stammverzeichnis:

"iscsi:"[<Servername>]":"<Protokoll>":"<Port>":"<LUN> ":

"<targetname>"

203 iSCSI-Initiator-IQN

Anmerkungen zur Tabelle:

Die Klammern [ ] sind für IPv6-Adressen erforderlich.

Der Inhalte für Option 17 sollte wie folgt lauten:

<2-byte Option Number 201|202|203> <2-byte length> <data>

Konfigurieren von VLANs für den iSCSI-Startvorgang

iSCSI-Datenverkehr im Netzwerk kann in einem Layer-2-VLAN isoliert werden, um ihn von allgemeinem Datenverkehr zu trennen. In so einem Fall muss die iSCSI-Schnittstelle auf dem Adapter Teil dieses VLANs sein.

So konfigurieren Sie VLANs für den iSCSI-Startvorgang:

1.

Gehen Sie zur Seite

iSCSI Configuration

(iSCSI-Konfiguration) für den

Port.

2.

Wählen Sie

iSCSI General Parameters

(Allgemeine iSCSI-Parameter) aus.

148 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server

3.

Wählen Sie

VLAN ID

(VLAN-ID) aus, um den VLAN-Wert einzugeben und

festzulegen. Siehe dazu auch Abbildung 9-16

.

Abbildung 9-16. Systemeinrichtung: Allgemeine iSCSI-Parameter, VLAN-ID

iSCSI-Offload unter Windows Server

iSCSI-Offload ist eine Technologie, mit der die rechenintensiven Aufgaben bei der

Verarbeitung des iSCSI-Protokolls von den Hostprozessoren zu deren Entlastung auf den iSCSI-Hostbus-Adapter verlagert werden und so bei gleichzeitiger

Erhöhung der Netzwerkleistung und des Durchsatzes eine optimale Nutzung der

Serverprozessoren erreicht wird. In diesem Abschnitt wird beschrieben, wie Sie die Windows-iSCSI-Offload-Funktion für QLogic 41

xxx

Series Adapters konfigurieren.

Mit der entsprechenden iSCSI-Offload-Lizenz können Sie Ihren iSCSI-fähigen

41

xxx

Series Adapter so konfigurieren, dass er die iSCSI-Verarbeitung vom

Hostprozessor weg verschiebt. Im folgenden Abschnitt wird beschrieben, wie Sie

Ihr System so einrichten, dass es die Vorteile der iSCSI-Offload-Funktion von

QLogic nutzen kann:

Installieren der QLogic-Treiber

Installieren von Microsoft iSCSI Software Initiator

Konfigurieren von Microsoft Initiator zur Verwendung des iSCSI Offload von

QLogic

Häufig gestellte Fragen (FAQs) zu iSCSI-Offload

Installation von iSCSI-Boot für Windows Server 2012 R2 und 2016

149 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server

iSCSI-Absturzspeicherabbild

Installieren der QLogic-Treiber

Installieren Sie die Windows-Treiber, wie unter

“Installieren der

Windows-Treibersoftware” auf Seite 17 beschrieben.

Installieren von Microsoft iSCSI Software Initiator

Rufen Sie das Microsoft-iSCSI-Initiator-Applet auf. Beim ersten Start fordert Sie das System dazu auf, einen automatischen Dienststart einzurichten. Bestätigen

Sie die Auswahl, damit das Applet gestartet wird.

Konfigurieren von Microsoft Initiator zur Verwendung des iSCSI Offload von QLogic

Nachdem jetzt die IP-Adresse für den iSCSI-Adapter konfiguriert wurde, müssen

Sie Microsoft Initiator verwenden, um eine Verbindung mit dem iSCSI-Ziel unter

Verwendung des iSCSI-Adapters von QLogic hinzuzufügen und zu konfigurieren.

Weitere Informationen zu Microsoft Initiator finden Sie im entsprechenden

Microsoft-Benutzerhandbuch.

So konfigurieren Sie den Microsoft Initiator:

1.

Öffnen Sie Microsoft Initiator.

2.

Gehen Sie wie folgt vor, um IQN-Namen für den Initiator entsprechend

Ihrem Setup zu konfigurieren: a.

Klicken Sie unter „iSCSI Initiator Properties“ (Eigenschaften des iSCSI-Initiators) auf die Registerkarte

Configuration

(Konfiguration).

150 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server b.

Klicken Sie auf der Seite „Configuration“ (Konfiguration)

( Abbildung 9-17

) zum Ändern des Initiatornamens auf

Change

(Ändern).

Abbildung 9-17. Eigenschaften des iSCSI-Initiators, Konfiguration (Seite)

151 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server c.

Geben Sie im Dialogfeld „iSCSI Initiator Name“ (iSCSI-Initiatorname) den neuen Initiator-IQN-Namen ein und klicken Sie auf

OK

.

( Abbildung 9-18

)

Abbildung 9-18. Änderung des iSCSI-Initiator-Knotennamens

3.

Klicken Sie unter „iSCSI Initiator Properties“ (Eigenschaften des iSCSI-Initiators) auf die Registerkarte

Discovery

(Ermittlung).

152 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server

4.

Klicken Sie auf der Seite „Discovery“ (Ermittlung) (

Abbildung 9-19 ) unter

Target portals

(Zielportale) auf

Discover Portal

(Portal ermitteln).

Abbildung 9-19. iSCSI-Initiator – Zielportal ermitteln

153 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server

5.

Führen Sie im Dialogfeld „Discover Target Portal“ (Zielportal ermitteln)

(

Abbildung 9-20 ) die folgenden Schritte aus:

a.

Geben Sie in das Feld

IP address or DNS name

(IP-Adresse oder

DNS-Name) die IP-Adresse des Ziels ein.

b.

Klicken Sie auf

Advanced

(Erweitert).

Abbildung 9-20. IP-Adresse für das Zielportal

6.

Vervollständigen Sie im Dialogfeld „Advanced Settings“ (Erweiterte

Einstellungen) (

Abbildung 9-21

) die folgenden Informationen unter

Connect using

(Verbinden über): a.

Wählen Sie für

Local adapter

(Lokaler Adapter)

QLogic <Name oder

Modell> Adapter

aus. b.

Wählen Sie für

Initiator IP

(Initiator-IP-Adresse) die IP-Adresse des

Adapters aus.

154 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server c.

Klicken Sie auf

OK

.

Abbildung 9-21. Auswählen der Initiator-IP-Adresse

7.

Klicken Sie auf der Seite „iSCSI Initiator Properties, Discovery“

(iSCSI-Initiator-Eigenschaften, Ermittlung) auf

OK

.

155 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server

8.

Klicken Sie auf die Registerkarte

Targets

(Ziele) und dann auf der Seite

„Targets“ (Ziele) (

Abbildung 9-22

) auf

Connect

(Verbinden).

Abbildung 9-22. Herstellen einer Verbindung zum iSCSI-Ziel

156 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server

9.

Klicken Sie im Dialogfeld „Connect To“ (Verbinden mit) (

Abbildung 9-23 ) auf

Advanced

(Erweitert).

Abbildung 9-23. Mit Ziel verbinden – Dialogfeld

10. Wählen Sie im Dialogfeld „Local Adapter“ (Lokaler Adapter) den

QLogic

<Name oder Modell> Adapter

aus und klicken Sie dann auf

OK

.

11.

Klicken Sie erneut auf

OK

, um Microsoft Initiator zu schließen.

12. Zur Formatierung der iSCSI-Partition verwenden Sie die

Datenträgerverwaltung.

ANMERKUNG

Es bestehen einige Einschränkungen bei der Teaming-Funktionalität, darunter:

 Teaming unterstützt keine iSCSI-Adapter.

 Teaming unterstützt keine NDIS-Adapter, die sich im Boot-Pfad befinden.

 Teaming unterstützt NDIS-Adapter, die sich nicht im iSCSI-Boot-Pfad befinden, jedoch nur für die SLB-Teamart.

Häufig gestellte Fragen (FAQs) zu iSCSI-Offload

Im Folgenden werden einige der häufig gestellten Fragen (FAQs) zu iSCSI-Offload behandelt:

Frage:

Antwort:

Wie weise ich eine IP-Adresse für iSCSI-Offload zu?

Verwenden Sie die Seite „Configurations“ (Konfigurationen) in der

QConvergeConsole-Benutzeroberfläche.

157 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server

Frage:

Antwort:

Welche Werkzeuge soll ich verwenden, um die Verbindung mit dem Ziel herzustellen?

Verwenden Sie Microsoft iSCSI Software Initiator (ab

Version 2.08).

Frage:

Antwort:

Woher weiß ich, dass sich die Verbindung im Offload-Modus befindet?

Verwenden Sie Microsoft iSCSI Software Initiator. Geben Sie in einer Befehlszeile oiscsicli sessionlist

ein. Bei

Verbindungen im iSCSI-Offload-Modus wird unter

Initiator Name

(Initiatorname) ein Eintrag angezeigt, der mit

B06BDRV

beginnt. Bei einer Verbindung ohne Offload wird ein Eintrag angezeigt, der mit

Root

beginnt.

Welche Konfigurationen sollte ich vermeiden?

Die IP-Adresse darf nicht dieselbe sein wie für das LAN.

Frage:

Antwort:

Installation von iSCSI-Boot für Windows Server 2012 R2 und

2016

Windows Server 2012 R2 und 2016 unterstützen das Booten und Installieren in die Offload- und Non-Offload-Pfade. QLogic erfordert die Verwendung einer

„Slipstream“-DVD mit den neuesten QLogic-Treibern. Siehe

“Einfügen

(Slipstreaming) der Adaptertreiber in die Windows-Imagedateien” auf Seite 188 .

Mit dem folgenden Verfahren wird das Image auf das Booten im Offload- oder

Non-Offload-Pfad vorbereitet.

So richten Sie den iSCSI-Boot-Vorgang für Windows Server 2012 R2 und

2016 ein:

1.

Entfernen Sie alle lokalen Festplatten auf dem zu startenden System (dem

„Remote-System“).

2.

Bereiten Sie den Windows-BS-Installationsdatenträger vor, indem Sie den

Slipstreaming-Schritten unter “Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien” auf Seite 188 folgen.

3.

Laden Sie die aktuellsten QLogic iSCSI-Boot-Abbilder auf den NVRAM des

Adapters.

4.

Konfigurieren Sie das iSCSI-Ziel, um eine Verbindung vom Remote-Gerät zuzulassen. Vergewissern Sie sich, dass das Ziel über ausreichend

Speicherplatz für die neue Betriebssysteminstallation verfügt.

5.

Konfigurieren Sie UEFI HII zum Festlegen des iSCSI-Starttyps (Offload oder

Non-Offload), korrigieren Sie den Initiator und die Zielparameter für den iSCSI-Startvorgang.

158 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

6.

Speichern Sie die Einstellungen, und starten Sie das System neu. Das

Remote-System sollte eine Verbindung zum iSCSI-Ziel herstellen und dann vom DVD-ROM-Gerät starten.

7.

Booten Sie von der DVD, und starten Sie die Installation.

8.

Befolgen Sie die Anweisungen auf dem Bildschirm.

Im Fenster, in dem die Liste der für die Installation verfügbaren Festplatten angezeigt wird, sollte auch das iSCSI-Ziellaufwerk angezeigt werden.

Dieses Ziel ist ein Laufwerk, das über das iSCSI-Boot-Protokoll angeschlossen ist und sich im externen iSCSI-Ziel befindet.

9.

Um mit der Installation für Windows Server 2012R2/2016 fortzufahren, klicken Sie auf

Next

(Weiter) und folgen dann den Anweisungen auf dem

Bildschirm. Der Server wird im Rahmen der Installation mehrmals neu gestartet.

10. Nachdem der Server das Betriebssystem gestartet hat, sollten Sie das

Treiberinstallationsprogramm ausführen, um die Installation von

QLogic-Treibern und -Anwendungen abzuschließen.

iSCSI-Absturzspeicherabbild

Die Absturzspeicherabbild-Funktion wird für Non-Offload- und

Offload-iSCSI-Boot-Vorgänge für 41

xxx

Series Adapters unterstützt. Es sind keine weiteren Konfigurationsschritte erforderlich, um die iSCSI-Absturzspeicherbild-Generierung zu konfigurieren.

iSCSI-Offload in Linux-Umgebungen

Die QLogic FastLinQ 41

xxx

iSCSI-Software besteht aus einem Kernelmodul mit der Bezeichnung „qedi.ko“ (qedi). Das qedi-Modul ist bei spezifischen

Funktionalitäten abhängig von weiteren Teilen des Linux-Kernels:

qed.ko

ist das Linux eCore-Kernelmodul, das für bekannte QLogic

FastLinQ 41

xxx

-Hardware-Initialisierungsroutinen verwendet wird.

scsi_transport_iscsi.ko

ist die Linux iSCSI-Transportbibliothek, die für Upcall- und Downcall-Vorgänge im Rahmen der Sitzungsverwaltung verwendet werden.

libiscsi.ko

ist die Linux-iSCSI-Bibliotheksfunktion, die für die

Protokolldateneinheit (PDU) und für die Task-Verarbeitung sowie für die

Sitzungsspeicherverwaltung benötigt wird.

iscsi_boot_sysfs.ko

ist die Linux-iSCSI-Sysfs-Schnittstelle, die Hilfe beim Export der iSCSI-Boot-Informationen bietet.

uio.ko

ist die Linux-Benutzerbereichs-E/A-Schnittstelle, die für die einfache L2-Speicherzuordnung für iscsiuio verwendet wird.

159 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

Diese Module müssen geladen werden, bevor qedi in Betrieb genommen werden kann. Ansonsten tritt möglicherweise ein Fehler der Art „unresolved symbol“ (nicht aufgelöstes Symbol) auf. Wenn das qedi-Modul im Aktualisierungspfad der

Distribution installiert ist, wird die Erfordernis automatisch durch modprobe geladen.

Dieser Abschnitt bietet die folgenden Informationen zum ISCSI-Offload in Linux.

Unterschiede zu bnx2i

Konfigurieren von qedi.ko

Überprüfen von iSCSI-Schnittstellen in Linux

Open-iSCSI und Starten über SAN – Überlegungen

Unterschiede zu bnx2i

Zwischen qedi, dem Treiber für QLogic FastLinQ 41

xxx

Series Adapter (iSCSI), und dem vorherigen QLogic iSCSI-Offload-Treiber mit der Bezeichnung „bnx2i“ für die Adapter der QLogic 8400-Serie bestehen einige wichtige Unterschiede.

Dazu gehören:

 qedi verbindet sich direkt mit einer PCI-Funktion, die durch den CNA ermittelt wird.

 qedi sitzt nicht auf dem NET-Gerät.

 qedi hängt nicht von einem Netzwerktreiber ab, wie z. B. bnx2x und cnic.

 qedi hängt nicht von cnic ab, es hängt jedoch von qed ab.

 qedi ist zuständig für den Export von Startinformationen in sysfs mithilfe von iscsi_boot_sysfs.ko

, wobei „bnx2i boot from SAN“ beim Exportieren von

Startinformationen auf das iscsi_ibft.ko

-Modul vertraut.

Konfigurieren von qedi.ko

Der qedi-Treiber verbindet sich automatisch mit den ermittelten iSCSI-Funktionen des CNA und die Zielermittlung und -bindung erfolgt über die open-iscsi-Werkzeuge. Diese Funktionalität und der Betrieb ähneln denen beim bnx2i¡-Treiber.

ANMERKUNG

Weitere Informationen zur Installation von FastLinQ-Treibern finden Sie unter

Kapitel 3 Treiberinstallation .

Führen Sie zum Laden des qedi.ko-Kernelmoduls die folgenden Befehle aus:

#

modprobe qed

#

modprobe libiscsi

160 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

#

modprobe uio

#

modprobe iscsi_boot_sysfs

#

modprobe qedi

Überprüfen von iSCSI-Schnittstellen in Linux

Nach der Installation und dem Laden des qedi-Kernel-Moduls müssen Sie sicherstellen, dass die iSCSI-Schnittstellen korrekt ermittelt wurden.

So überprüfen Sie die iSCSI-Schnittstellen in Linux:

1.

Um zu überprüfen, ob qedi und die verknüpften Kernel-Module aktiv geladen wurden, führen Sie den folgenden Befehl aus:

#

lsmod | grep qedi

qedi 114578 2 qed 697989 1 qedi uio 19259 4 cnic,qedi libiscsi 57233 2 qedi,bnx2i scsi_transport_iscsi 99909 5 qedi,bnx2i,libiscsi iscsi_boot_sysfs 16000 1 qedi

2.

Um zu überprüfen, ob die iSCSI-Schnittstellen ordnungsgemäß ermittelt wurden, führen Sie den folgenden Befehl aus. In diesem Beispiel wurden zwei iSCSI-CNA-Geräte mit den SCSI-Host-Nummern 4 und 5 ermittelt.

#

dmesg | grep qedi

[0000:00:00.0]:[qedi_init:3696]: QLogic iSCSI Offload Driver v8.15.6.0.

....

[0000:42:00.4]:[__qedi_probe:3563]:59: QLogic FastLinQ iSCSI Module qedi

8.15.6.0, FW 8.15.3.0

....

[0000:42:00.4]:[qedi_link_update:928]:59: Link Up event.

....

[0000:42:00.5]:[__qedi_probe:3563]:60: QLogic FastLinQ iSCSI Module qedi

8.15.6.0, FW 8.15.3.0

....

[0000:42:00.5]:[qedi_link_update:928]:59: Link Up event

3.

Verwenden Sie Open-iSCSI-Werkzeuge, um sicherzustellen, dass die

IP-Adresse korrekt konfiguriert wurde. Geben Sie den folgenden Befehl aus:

#

iscsiadm -m iface | grep qedi

qedi.00:0e:1e:c4:e1:6d qedi,00:0e:1e:c4:e1:6d,192.168.101.227,<empty>,iqn.1994-05.com.redhat:534ca9b6 adf

161 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen qedi.00:0e:1e:c4:e1:6c qedi,00:0e:1e:c4:e1:6c,192.168.25.91,<empty>,iqn.1994-05.com.redhat:534ca9b6adf

4.

Um sicherzustellen, dass der iscsiuio-Dienst ausgeführt wird, führen Sie den folgenden Befehl aus:

#

systemctl status iscsiuio.service

iscsiuio.service - iSCSI UserSpace I/O driver

Loaded: loaded (/usr/lib/systemd/system/iscsiuio.service; disabled; vendor preset: disabled)

Active: active (running) since Fri 2017-01-27 16:33:58 IST; 6 days ago

Docs: man:iscsiuio(8)

Process: 3745 ExecStart=/usr/sbin/iscsiuio (code=exited, status=0/SUCCESS)

Main PID: 3747 (iscsiuio)

CGroup: /system.slice/iscsiuio.service !--3747 /usr/sbin/iscsiuio

Jan 27 16:33:58 localhost.localdomain systemd[1]: Starting iSCSI

UserSpace I/O driver...

Jan 27 16:33:58 localhost.localdomain systemd[1]: Started iSCSI UserSpace

I/O driver.

5.

Um das iSCSI-Ziel zu ermitteln, führen Sie den Befehl iscsiadm

aus:

#

iscsiadm -m discovery -t st -p 192.168.25.100 -I qedi.00:0e:1e:c4:e1:6c

192.168.25.100:3260,1 iqn.2003-

04.com.sanblaze:virtualun.virtualun.target-05000007

192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000012

192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0500000c

192.168.25.100:3260,1 iqn.2003-

04.com.sanblaze:virtualun.virtualun.target-05000001

192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000002

6.

Melden Sie sich über den in Schritt 5 erhaltenen IQN beim iSCSI-Ziel an.

Um das Anmeldeverfahren einzuleiten, führen Sie den folgenden Befehl aus

(wobei das letzte Zeichen im Befehl ein klein geschriebenes „L“ ist):

#

iscsiadm -m node -p 192.168.25.100 -T iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0)000007 -l

Logging in to [iface: qedi.00:0e:1e:c4:e1:6c, target:iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007, portal:192.168.25.100,3260] (multiple)

Login to [iface: qedi.00:0e:1e:c4:e1:6c, target:iqn.2003-

04.com.sanblaze:virtualun.virtualun.target-05000007, portal:192.168.25.100,3260] successful.

162 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

7.

Um zu überprüfen, ob die iSCSI-Sitzung erstellt wurde, führen Sie den folgenden Befehl aus:

#

iscsiadm -m session

qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash)

8.

Um nach iSCSI-Geräten zu suchen, führen Sie den Befehl iscsiadm

aus:

#

iscsiadm -m session -P3

...

************************

Attached SCSI devices:

************************

Host Number: 59 State: running scsi59 Channel 00 Id 0 Lun: 0

Attached scsi disk sdb State: running scsi59 Channel 00 Id 0 Lun: 1

Attached scsi disk sdc State: running scsi59 Channel 00 Id 0 Lun: 2

Attached scsi disk sdd State: running scsi59 Channel 00 Id 0 Lun: 3

Attached scsi disk sde State: running scsi59 Channel 00 Id 0 Lun: 4

Attached scsi disk sdf State: running

Informationen zu erweiterten Zielkonfigurationen finden Sie in der

Open-iSCSI-Infodatei unter: https://github.com/open-iscsi/open-iscsi/blob/master/README

Open-iSCSI und Starten über SAN – Überlegungen

In aktuellen Distributionen (z. B. RHEL 6/7 und SLE 11/12) bietet das

Dienstprogramm für den Inbox-iSCSI-Benutzerbereich (Open-iSCSI-Werkzeuge) keine Unterstützung für den qedi-iSCSI-Transport und kann daher keine durch den Benutzerbereich initiierte iSCSI-Funktionalität ausführen. Während der

Installation von „Boot from SAN“ (Starten über SAN) können Sie den qedi-Treiber

über ein Treiber-Aktualisierungsmedium (DUD) aktualisieren. Es ist jedoch keine

Schnittstelle und kein Prozess vorhanden, um Inbox-Dienstprogramme für den

Benutzerbereich zu aktualisieren, damit kommt es zu einem Fehler bei der

Anmeldung am iSCSI-Ziel und der Installation von „Boot from“ (Starten über

SAN).

Um diese Beschränkung zu überwinden, führen Sie den ersten Vorgang für

„Booten über SAN“ über die reine L2-Schnittstelle aus (verwenden Sie nicht das

Hardware-Offload-iSCSI), und verwenden Sie dabei das folgende Verfahren während des Boot-über-SAN-Vorgangs.

163 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

So führen Sie einen Vorgang der Art „Booten über SAN“ über einen

Software-Initiator mithilfe der Dell OEM-Lösungen aus:

1.

Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die Option

Boot Protocol

(Boot-Protokoll) aus, und drücken Sie dann auf EINGABE, um

Legacy PXE

(Legacy-PXE) auszuwählen.

2.

Konfigurieren Sie den Initiator und die Zieleinträge.

3.

Geben Sie zu Beginn der Installation den folgenden Boot-Parameter mit der

DUD-Option weiter:

 Für RHEL 6.

x

und 7.

x

:

rd.iscsi.ibft dd

Es sind keine separaten Optionen für ältere Distributionen von RHEL erforderlich.

 Für SLES 11 SP4 und SLES 12 SP1/SP2/SP3:

ip=ibft dud=1

 Für das FastLinQ-DUD-Paket (z. B. auf RHEL 7):

fastlinq-8.18.10.0-dd-rhel7u3-3.10.0_514.el7-x86_64.iso

Hier steht der DUD-Parameter auf dd

für RHEL 7.

x

und auf dud=1

für

SLES 12.

x

.

4.

Installieren Sie das BS auf dem Ziel-LUN.

5.

Migrieren Sie anhand der folgenden Anweisungen für Ihr Betriebssystem von der Non-Offload-Schnittstelle auf eine Offload-Schnittstelle:

RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“

RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“

SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“

SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“

SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“ über

MPIO

164 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“

So migrieren Sie von einer Non-Offload-Schnittstelle auf eine

Offload-Schnittstelle:

1.

Booten Sie auf das iSCSI-Non-Offload-/L2-Booten-über-SAN-Betriebssystem.

Geben Sie die folgenden Befehle aus, um die open-iscsi- und iscsiuio-RPMs zu installieren:

#

rpm -ivh --force qlgc-open-iscsi-2.0_873.111-1.x86_64.rpm

#

rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm

2.

Bearbeiten Sie die Datei

/etc/init.d/iscsid

, fügen Sie den folgenden

Befehl hinzu und speichern Sie die Datei: modprobe -q qedi

Zum Beispiel: echo -n $"Starting $prog: " modprobe -q iscsi_tcp modprobe -q ib_iser modprobe -q cxgb3i modprobe -q cxgb4i modprobe -q bnx2i modprobe -q be2iscsi

modprobe -q qedi

daemon iscsiuio

3.

Bearbeiten Sie die Datei

/etc/iscsi/iscsid.conf

, kommentieren Sie die folgenden Zeilen bzw. heben die Kommentierung auf und speichern Sie die

Datei:

 Kommentar: iscsid.startup = /etc/rc.d/init.d/iscsid force-start

 Kommentar aufheben: iscsid.startup = /sbin/iscsid

Zum Beispiel:

######################

# iscsid daemon config

######################

# If you want iscsid to start the first time a iscsi tool

# needs to access it, instead of starting it when the init

# scripts run, set the iscsid startup command here. This

# should normally only need to be done by distro package

# maintainers.

#

165 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

# Default for Fedora and RHEL. (uncomment to activate).

#iscsid.startup = /etc/rc.d/init.d/iscsid force-start

#

# Default for upstream open-iscsi scripts (uncomment to activate).

iscsid.startup = /sbin/iscsid

4.

Erstellen Sie einen Iface-Datensatz für eine L4-Schnittstelle: Geben Sie den folgenden Befehl aus:

#

iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -o new

New interface qedi.14:02:ec:ce:dc:71 added

Das Iface-Datensatzformat muss wie folgt lauten: qedi.<

mac_address

>

.

In diesem Fall muss die MAC-Adresse mit der L4-MAC-Adresse

übereinstimmen, auf der die iSCSI-Sitzung aktiv ist.

5.

Aktualisieren Sie die Iface-Felder in den Iface-Datensätzen durch die

Ausgabe des Befehls iscsiadm

. Zum Beispiel:

#

iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.hwaddress -v 14:02:ec:ce:dc:71 -o update

qedi.14:02:ec:ce:dc:71 updated.

#

iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.transport_name -v qedi -o update

qedi.14:02:ec:ce:dc:71 updated.

#

iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.bootproto -v dhcp -o update

qedi.14:02:ec:ce:dc:71 updated.

#

iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -n iface.ipaddress -v 0.0.0.0 -o update

qedi.14:02:ec:ce:dc:71 updated.

#

iscsiadm -m node -T iqn.1986-03.com.hp:storage.p2000g3.13491b47fb -p 192.168.100.9:3260 -I qedi.14:02:ec:ce:dc:71 -o new

New iSCSI node [qedi:[hw=14:02:ec:ce:dc:71,ip=0.0.0.0,net_if=,iscsi_if=qedi.14:02:ec:ce:dc:71]

192.168.100.9,3260,-1 iqn.1986-03.com.hp:storage.p2000g3.13491b47fb] added

6.

Bearbeiten Sie die Datei

/boot/efi/EFI/redhat/grub.conf

, nehmen Sie die folgenden Änderungen vor, und speichern Sie die Datei:

 Entfernen Sie ifname=eth5:14:02:ec:ce:dc:6d

.

 Entfernen Sie ip=ibft

.

 Fügen Sie selinux=0

hinzu.

Zum Beispiel: kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8

ifname=eth5:14:02:ec:ce:dc:6d

rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap

ip=ibft

KEYBOARDTYPE=pc

KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root rhgb quiet

initrd /initramfs-2.6.32-696.el6.x86_64.img

166 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD

SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root

selinux=0

initrd /initramfs-2.6.32-696.el6.x86_64.img

7.

Erstellen Sie die Datei initramfs

, indem Sie den folgenden Befehl ausgeben:

#

dracut -f

8.

Starten Sie den Server neu, und öffnen Sie dann die HII.

9.

Aktivieren Sie in der HII den iSCSI-Offload-Modus: a.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Optionen

System Setup

(Systemeinrichtung) und

Device Settings

(Geräteeinstellungen) aus.

b.

Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den

Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde.

c.

Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung)

NIC

Partitioning Configuration

(NIC-Partitionierungskonfiguration),

Partition 3 Configuration

(Konfiguration Partition 3) aus.

d.

Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration

Partition 3)

iSCSI Offload Mode

(iSCSI-Offload-Modus) auf

Enabled

(Aktiviert).

10. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

iSCSI

General Parameters

(Allgemeine iSCSI-Parameter), und setzen Sie

HBA

Boot Mode

(HBA-Boot-Modus) auf

Enabled

(Aktiviert).

11.

Setzen auf der Seite „Main Configuration“ (Hauptkonfiguration)

Boot

Protocol

(Boot-Protokoll) auf

UEFI iSCSI HBA

.

12. Speichern Sie die Konfiguration, und starten Sie den Server neu.

ANMERKUNG

Das BS kann nun über die Offload-Schnittstelle gestartet werden.

167 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“

So migrieren Sie von einer Non-Offload-Schnittstelle auf eine

Offload-Schnittstelle:

1.

Aktualisieren Sie die open-iscisi-Werkzeuge und iscsiuio, indem Sie die folgenden Befehle ausgeben:

#

rpm -ivh qlgc-open-iscsi-2.0_873.111.rhel7u3-3.x86_64.rpm --force

#

rpm -ivh iscsiuio-2.11.5.3-2.rhel7u3.x86_64.rpm --force

2.

Laden Sie alle Daemon-Dienste über den folgenden Befehl neu:

#

systemctl daemon-reload

3.

Starten Sie die iscsid- und iscsiuio-Dienste neu, indem Sie die folgenden

Befehle ausgeben:

#

systemctl restart iscsiuio

#

systemctl restart iscsid

4.

Erstellen Sie einen Iface-Datensatz für die L4-Schnittstelle, indem Sie den folgenden Befehl ausgeben:

#

iscsiadm -m iface -I qedi. 00:0e:1e:d6:7d:3a -o new

Das Iface-Datensatzformat muss wie folgt lauten: qedi<

MAC-Adresse

>

. In diesem Fall muss die MAC-Adresse mit der L4-MAC-Adresse

übereinstimmen, auf der die iSCSI-Sitzung aktiv ist.

5.

Aktualisieren Sie die Iface-Felder in den Iface-Datensätzen durch die

Ausgabe des Befehls iscsiadm

. Zum Beispiel:

#

iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.hwaddress -v 00:0e:1e:d6:7d:3a -o update

#

iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.ipaddress -v 192.168.91.101 -o update

#

iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.subnet_mask -v 255.255.0.0 -o update

#

iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.transport_name -v qedi -o update

#

iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.bootproto -v static -o update

6.

Erstellen Sie wie folgt einen Zielknotendatensatz, um die L4-Schnittstelle zu verwenden:

#

iscsiadm -m node -T iqn.2003-04.com.sanblaze:virtualun.virtualun.target-050123456

-p 192.168.25.100:3260 -I qedi.00:0e:1e:d6:7d:3a -o new

7.

Bearbeiten Sie die Datei

/usr/libexec/iscsi-mark-root-node

, und suchen Sie die folgende Aussage: if [ "$transport" = bnx2i ]; then start_iscsiuio=1

168 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

Fügen Sie

|| [ "$transport" = qedi ]

wie folgt zum IF-Ausdruck hinzu: if [ "$transport" = bnx2i ]

|| [ "$transport" = qedi ]

; then start_iscsiuio=1

8.

Bearbeiten Sie die Datei

/etc/default/grub

, und suchen Sie anschließend die folgende Aussage:

GRUB_CMDLINE_LINUX="iscsi_firmware ip=ibft"

Ändern Sie diese Aussage in:

GRUB_CMDLINE_LINUX="rd.iscsi.firmware"

9.

Erstellen Sie eine neue grub.cfg

-Datei, indem Sie den folgenden Befehl ausgeben:

#

grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg

10. Erstellen Sie die Datei initramfs

, indem Sie den folgenden Befehl ausgeben:

#

dracut -f

11.

Starten Sie den Server neu, und öffnen Sie dann die HII.

12. Aktivieren Sie in der HII den iSCSI-Offload-Modus: a.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

System Setup

(Systemeinrichtung) und

Device Settings

(Geräteinstellungen) aus.

b.

Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den

Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde.

c.

Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung)

NIC

Partitioning Configuration

(NIC-Partitionierungskonfiguration),

Partition 3 Configuration

(Konfiguration Partition 3) aus.

d.

Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration

Partition 3)

iSCSI Offload Mode

(iSCSI-Offload-Modus) auf

Enabled

(Aktiviert).

13. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

iSCSI

General Parameters

(Allgemeine iSCSI-Parameter), und setzen Sie

HBA

Boot Mode

(HBA-Boot-Modus) auf

Enabled

(Aktiviert).

14. Setzen auf der Seite „Main Configuration“ (Hauptkonfiguration)

Boot

Protocol

(Boot-Protokoll) auf

UEFI iSCSI HBA

.

169 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

15. Speichern Sie die Konfiguration, und starten Sie den Server neu.

ANMERKUNG

Das BS kann nun über die Offload-Schnittstelle gestartet werden.

SLES 11 SP4 iSCSI L4 – Migration für „Booten über SAN“

So migrieren Sie von einer Non-Offload-Schnittstelle auf eine

Offload-Schnittstelle:

1.

Aktualisieren Sie die open-iscsi-Werkzeuge auf die neuesten verfügbaren

Versionen, indem Sie die folgenden Befehle ausführen:

#

rpm -ivh qlgc-open-iscsi-2.0_873.111.sles11sp4-3.x86_64.rpm --force

#

rpm -ivh iscsiuio-2.11.5.3-2.sles11sp4.x86_64.rpm --force

2.

Bearbeiten Sie die Datei

/etc/elilo.conf

, nehmen Sie die folgenden

Änderungen vor, und speichern Sie anschließend die Datei:

 Entfernen Sie den Parameter ip=ibft

(falls vorhanden).

 Fügen Sie iscsi_firmware

hinzu.

3.

Bearbeiten Sie die Datei

/etc/sysconfig/kernel

, und suchen Sie die folgende Aussage:

INITRD_MODULES=”ata_piix ata_generic”

Ändern Sie die Aussage in:

INITRD_MODULES=”ata_piix ata_generic qedi”

Speichern Sie die Datei.

4.

Bearbeiten Sie die Datei

/etc/modprobe.d/unsupported-modules

,

ändern Sie den Wert für allow_unsupported_modules

in 1, und speichern

Sie die Datei: allow_unsupported_modules 1

5.

Suchen und löschen Sie die folgenden Dateien:

/etc/init.d/boot.d/K01boot.open-iscsi

/etc/init.d/boot.open-iscsi

6.

Erstellen Sie eine Sicherungskopie der initrd-Datei, und erstellen Sie anschließend eine neue initrd-Datei, indem Sie die folgenden Befehle ausgeben:

#

cd /boot/

#

mkinitrd

170 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

7.

Starten Sie den Server neu, und öffnen Sie dann die HII.

8.

Aktivieren Sie in der HII den iSCSI-Offload-Modus: a.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

System Setup

(Systemeinrichtung) und

Device Settings

(Geräteinstellungen) aus.

b.

Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den

Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde.

c.

Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung)

NIC

Partitioning Configuration

(NIC-Partitionierungskonfiguration),

Partition 3 Configuration

(Konfiguration Partition 3) aus.

d.

Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration

Partition 3)

iSCSI Offload Mode

(iSCSI-Offload-Modus) auf

Enabled

(Aktiviert).

9.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

iSCSI

General Parameters

(Allgemeine iSCSI-Parameter) aus, und setzen Sie

HBA Boot Mode

(HBA-Boot-Modus) auf

Enabled

(Aktiviert).

10. Setzen auf der Seite „Main Configuration“ (Hauptkonfiguration)

Boot

Protocol

(Boot-Protokoll) auf

UEFI iSCSI HBA

.

11.

Speichern Sie die Konfiguration, und starten Sie den Server neu.

ANMERKUNG

Das BS kann nun über die Offload-Schnittstelle gestartet werden.

SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“

So migrieren Sie von einer Non-Offload-Schnittstelle auf eine

Offload-Schnittstelle:

1.

Starten Sie auf das iSCSI-Non-Offload-/L2-Boot-über-SAN-Betriebssystem.

Geben Sie die folgenden Befehle aus, um die open-iscsi- und iscsiuio-RPMs zu installieren:

#

qlgc-open-iscsi-2.0_873.111.slessp2-3.x86_64.rpm

#

iscsiuio-2.11.5.3-2.sles12sp2.x86_64.rpm

2.

Laden Sie alle Daemon-Dienste neu, indem Sie den folgenden Befehl ausgeben:

#

systemctl daemon-reload

171 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

3.

Aktivieren Sie die iscsid- und iscsiuio-Dienste, wenn sie nicht bereits aktiviert wurden. Geben Sie dazu die folgenden Befehle aus:

# systemctl enable iscsid

# systemctl enable iscsiuio

4.

Geben Sie den folgenden Befehl aus:

cat /proc/cmdline

5.

Überprüfen Sie, ob das BS Startoptionen bewahrt hat, z. B. ip=ibft

oder rd.iscsi.ibft

.

Wenn es bewahrte Startoptionen gibt, fahren Sie mit Schritt 6 fort.

Wenn es keine bewahrten Startoptionen gibt, fahren Sie mit Schritt 6 c

fort.

6.

Bearbeiten Sie die Datei

/etc/default/grub

und ändern Sie den Wert

GRUB_CMDLINE_LINUX

.

a.

Entfernen Sie rd.iscsi.ibft

(falls vorhanden).

b.

Entfernen Sie alle Startoptionen der Art ip=<Wert>

. (falls vorhanden).

c.

Fügen Sie rd.iscsi.firmware

hinzu. Fügen Sie bei älteren

Distributionen iscsi_firmware

hinzu.

7.

Erstellen Sie eine Sicherungskopie der Originalgrub.cfg

-Datei. Diese

Datei befindet sich an den folgenden Speicherorten:

 Legacy-Start:

/boot/grub2/grub.cfg

 UEFI-Start:

/boot/efi/EFI/sles/grub.cfg

für SLES

8.

Erstellen Sie eine neue grub.cfg

-Datei, indem Sie den folgenden Befehl ausgeben:

#

grub2-mkconfig -o <new file name>

9.

Vergleichen Sie die alte Datei mit der Bezeichnung grub.cfg

mit der neuen

Datei mit der Bezeichnung grub.cfg

, um Ihre Änderungen zu überprüfen.

10. Ersetzen Sie die Originalgrub.cfg

-Datei durch die neue Datei grub.cfg

.

11.

Erstellen Sie die Datei initramfs

, indem Sie den folgenden Befehl ausgeben:

#

dracut -f

12. Starten Sie den Server neu, und öffnen Sie dann die HII.

172 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

13. Aktivieren Sie in der HII den iSCSI-Offload-Modus: a.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

System Setup

(Systemeinrichtung) und

Device Settings

(Geräteinstellungen) aus.

b.

Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) den Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert wurde.

c.

Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung)

NIC

Partitioning Configuration

(NIC-Partitionierungskonfiguration),

Partition 3 Configuration

(Konfiguration Partition 3) aus.

d.

Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration

Partition 3)

iSCSI Offload Mode

(iSCSI-Offload-Modus) auf

Enabled

(Aktiviert).

14. Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

iSCSI

General Parameters

(Allgemeine iSCSI-Parameter) aus, und setzen Sie

HBA Boot Mode

(HBA-Boot-Modus) auf

Enabled

(Aktiviert).

15. Setzen auf der Seite „Main Configuration“ (Hauptkonfiguration)

Boot

Protocol

(Boot-Protokoll) auf

UEFI iSCSI HBA

.

16. Speichern Sie die Konfiguration, und starten Sie den Server neu.

ANMERKUNG

Das BS kann nun über die Offload-Schnittstelle gestartet werden.

SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“ über MPIO

Um von L2 auf L4 zu migrieren und die Einstellungen für Microsoft

Multipfad-E/A (MPIO) zu konfigurieren, um das Betriebssystem über die

Offload-Schnittstelle zu booten:

1.

Geben Sie zum Aktualisieren des open-iscsi-Werkzeugs den folgenden

Befehl aus:

#

rpm -ivh --force qlgc-open-iscsi-2.0_873.111.sles12sp1-3.x86_64.rpm

#

rpm -ivh --force iscsiuio-2.11.5.3-2.sles12sp1.x86_64.rpm

2.

Gehen Sie zu

/etc/default/grub

und ändern Sie den Parameter rd.iscsi.ibft

in rd.iscsi.firmware

.

3.

Geben Sie den folgenden Befehl aus:

grub2-mkconfig -o /boot/efi/EFI/suse/grub.cfg

173 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen

4.

Führen Sie zum Laden des Multipfad-Moduls den folgenden Befehl aus:

modprobe dm_multipath

5.

Führen Sie zum Aktivieren des Multipfad-Daemon die folgenden Befehle aus:

systemctl start multipathd.service

systemctl enable multipathd.service

systemctl start multipathd.socket

6.

Führen Sie zum Hinzufügen von Geräten zum Multipfad die folgenden

Befehle aus:

multipath -a /dev/sda multipath -a /dev/sdb

7.

Führen Sie zum Ausführen des Multipfad-Dienstprogramms die folgenden

Befehle aus:

multipath

(zeigt möglicherweise nicht die Multipfad-Geräte an, da es mit einem einzelnen Pfad auf L2 gestartet wird)

.

multipath -ll

8.

Führen Sie zum Einführen des Multipfad-Moduls in initrd den folgenden

Befehl aus:

dracut --force --add multipath --include /etc/multipath

9.

Starten Sie den Server neu und rufen Sie die Systemeinstellungen auf, indem Sie während des Einschalt-Selbsttests (POST) auf die Taste F9 drücken.

10. Passen Sie die UEFI-Konfiguration zur Verwendung des

L4-iSCSI-Boot-Vorgangs an: a.

Öffnen Sie das Fenster „System Setup“ (Systemeinrichtung), und wählen Sie dann

Device Settings

(Geräteeinstellungen) aus.

b.

Wählen Sie im Fenster „Device Settings“ (Geräteeinstellungen) den

Adapter-Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert ist, und drücken Sie dann auf EINGABE.

c.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration)

NIC Partitioning Configuration

(Konfiguration der

NIC-Partitionierung) aus, und drücken dann auf EINGABE.

d.

Wählen Sie auf der Seite „Partitions Configuration“

(Partitionskonfiguration)

Partition 3 Configuration

(Konfiguration

Partition 3) aus.

174 AH0054602-01 F

9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen e.

Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration

Partition 3)

iSCSI Offload Mode

(iSCSI-Offload-Modus) auf

Enabled

(Aktiviert).

f.

Gehen Sie zur Seite „Main Configuration“ (Hauptkonfiguration), und wählen Sie dort

iSCSI Configuration

(iSCSI-Konfiguration) aus.

g.

Wählen Sie auf der Seite „iSCSI Configuration“ (iSCSI-Konfiguration) die Option

iSCSI General Parameters

(Allgemeine iSCSI-Parameter) aus.

h.

Setzen Sie auf der Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter)

HBA Boot Mode

(HBA-Boot-Modus) auf

Enabled

(Aktiviert).

i.

j.

Gehen Sie zur Seite „Main Configuration“ (Hauptkonfiguration), und wählen Sie

NIC Configuration

(NIC-Konfiguration) aus.

Setzen auf der Seite „NIC Configuration“ (NIC-Konfiguration)

Boot

Protocol

(Boot-Protokoll) auf

UEFI iSCSI HBA

.

k.

Speichern Sie die Einstellungen, und beenden Sie dann das Menü

„System Configuration“ (Systemkonfiguration).

11.

Um eine ordnungsgemäße Installation der vorkonfigurierten Treiber auf der

Treiber-Aktualisierungsdiskette (DUD) zu gewährleisten und das Laden der enthaltenen Treiber zu verhindern, gehen Sie wie folgt vor: a.

Bearbeiten Sie die Datei

/etc/default/grub

, um den folgenden

Befehl einzuschließen:

BOOT_IMAGE=/boot/x86_64/loader/linux dud=1 brokenmodules=qed,qedi,qedf linuxrc.debug=1 b.

Bearbeiten Sie die Datei dud.config

auf der DUD, und fügen Sie die folgenden Befehle hinzu, um die Liste mit den defekten Module zu löschen: brokenmodules=-qed,qedi,qedf brokenmodules=dummy_xxx

12. Starten Sie das System neu. Das BS muss nun über die

Offload-Schnittstelle gestartet werden.

175 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4

Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4

So installieren Sie RHEL ab Version 7.4:

1.

Starten Sie vom RHEL 7.

x

-Installationsdatenträger, wobei das iSCSI-Ziel bereits mit UEFI verbunden sein muss.

Install Red Hat Enterprise Linux 7.x

Test this media & install Red Hat Enterprise 7.x

Troubleshooting -->

Use the UP and DOWN keys to change the selection

Press 'e' to edit the selected item or 'c' for a command prompt

2.

Geben Sie für die Installation eines vorkonfigurierten Treibers e

ein. Fahren

Sie ansonsten mit Schritt 7 fort.

3.

Wählen Sie die Kernel-Zeile aus und geben dann e

ein.

4.

Geben Sie den folgenden Befehl aus, und drücken Sie dann EINGABE.

linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf

Sie können die Option inst.dd

statt der Option linux dd

verwenden.

5.

Während der Installation werden Sie dazu aufgefordert, den

vorkonfigurierten Treiber gemäß dem Beispiel in Abbildung 9-24 zu

installieren.

176 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4

Figure 9-24. Aufforderung zur Installation des vorkonfigurierten Treibers

6.

Falls in Ihrer Konfiguration erforderlich, laden Sie den Datenträger mit dem

FastLinQ-Treiber-Update, wenn Sie dazu aufgefordert werden, weitere

Treiber-Datenträger einzulegen. Geben Sie ansonsten den Befehl c

ein, wenn es keine weiteren Treiber-Update-Datenträger für die Installation mehr gibt.

7.

Setzen Sie die Installation fort. Sie können den Datenträgertest übergehen.

Klicken Sie auf

Next

(Weiter), um die Installation fortzusetzen.

177 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4

8.

Wählen Sie im Fenster „Configuration“ (Konfiguration) ( Abbildung 9-25

) die

Sprache aus, die während des Installationsvorgangs verwendet werden soll, und klicken Sie dann auf

Continue

(Weiter).

Figure 9-25. Konfiguration von Red Hat Enterprise Linux 7.4

9.

Klicken Sie im Fenster „Installation Summary“

(Installationszusammenfassung) auf

Installation Destination

(Installationsziel). Die Festplattenbeschriftung lautet

sda

und weist damit auf eine Einzelpfad-Installation hin. Wenn Sie sich für eine Multipfad-Installation entschieden hatten, trägt die Festplatte ein Gerätezuordnungsetikett (Device

Mapper Label).

10. Wählen Sie im Abschnitt

Specialized & Network Disks

(Spezielle und

Netzwerklaufwerke) „iSCSI LUN“ aus.

11.

Geben Sie das Passwort des Root-Benutzers ein und klicken dann auf

Next

(Weiter), um die Installation abzuschließen.

12. Fügen Sie während des ersten Startvorgangs die folgende

Kernel-Befehlszeile hinzu, die in die Shell eingehen soll.

rd.iscsi.firmware rd.break=pre-pivot rd.driver.pre=qed,qede, qedr,qedf,qedi selinux=0

13. Geben Sie die folgenden Befehle aus:

#

umount /sysroot/boot/efi

#

umount /sysroot/boot/

#

umount /sysroot/home/

#

umount /sysroot

#

mount /dev/mapper/rhel-root /sysroot

14. Bearbeiten Sie die Datei

/sysroot/usr/libexec/iscsi-mark-root-nodes

und suchen Sie die folgende Aussage: if [ "$transport" = bnx2i ]; then

178 AH0054602-01 F

9–iSCSI-Konfiguration

Konfigurieren des iSCSI-Startvorgangs über SAN für RHEL ab Version 7.4

Ändern Sie die Aussage in: if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then

15. Führen Sie einen Unmount-Vorgang des Dateisystems durch, indem Sie den folgenden Befehl ausgeben:

#

umount /sysroot

16. Starten Sie den Server neu, und fügen Sie die folgenden Parameter zur

Befehlszeile hinzu: rd.iscsi.firmware

rd.driver.pre=qed,qedi

(zum Laden aller Treiber pre=qed,qedi,qedi,qedf) selinux=0

17. Bearbeiten Sie nach einem erfolgreichen Systemstart die Datei

/etc/modprobe.d/anaconda-blacklist.conf

, um den Sperrlisteneintrag für den ausgewählten Treiber zu entfernen.

18. Bauen Sie die Ramdisk neu auf, indem Sie den Befehl dracut -f ausführen und anschließend einen Neustart einleiten.

179 AH0054602-01 F

10

FCoE-Konfiguration

In diesem Abschnitt finden Sie die folgenden Informationen zur Fibre Channel over Ethernet (FCoE)-Konfiguration:

FCoE – Starten über SAN

„Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien“ auf Seite 188

„Konfigurieren von Linux FCoE-Offload“ auf Seite 189

„Unterschiede zwischen qedf und bnx2fc“ auf Seite 190

„Konfigurieren von qedf.ko“ auf Seite 190

„Überprüfen von FCoE-Geräten in Linux“ auf Seite 191

„Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4“ auf Seite 192

ANMERKUNG

FCoE-Offload wird auf allen Adapter der 41

xxx

-Serie unterstützt. Einige

FCoE-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert. Weitere Details finden Sie unter

Anhang D

Einschränkungen bei Merkmalen und Funktionen .

FCoE – Starten über SAN

In diesem Abschnitt werden die Installations- und Startverfahren für die

Betriebssysteme Windows, Linux und ESXi beschrieben:

Vorbereiten des System-BIOS auf den Aufbau und das Starten von FCoE

Windows FCoE – Starten über SAN

ANMERKUNG

Der FCoE-Boot über SAN wird unter ESXi ab Version 5.5 unterstützt. Nicht alle Adapterversionen unterstützen die Funktionen „FCoE“ und „FCoE Boot from SAN“ (FCoE über SAN starten).

180 AH0054602-01 F

10–FCoE-Konfiguration

FCoE – Starten über SAN

Vorbereiten des System-BIOS auf den Aufbau und das Starten von FCoE

Um das System-BIOS vorzubereiten, passen Sie die Systemstartreihenfolge an und definieren Sie, falls erforderlich, das BIOS-Startprotokoll.

Definieren des BIOS-Startprotokolls

Das Starten von FCoE von einem SAN wird nur im UEFI-Modus unterstützt. Setzen

Sie die Plattform im Startmodus (Protokoll) über die System-BIOS-Konfiguration auf „UEFI“.

ANMERKUNG

FCoE BFS wird im Legacy-BIOS-Modus nicht unterstützt.

Konfigurieren des Adapter-UEFI-Startmodus

So konfigurieren Sie den Startmodus für FCoE:

1.

Starten Sie das System neu.

2.

Drücken Sie die OEM-Abkürzungstaste, um die Systemeinrichtung

(

Abbildung 10-1 ) aufzurufen. Auch bekannt als UEFI HII.

Abbildung 10-1. Systemeinrichtung: Auswählen der Geräteeinstellungen

181 AH0054602-01 F

10–FCoE-Konfiguration

FCoE – Starten über SAN

ANMERKUNG

„Start Boot“ (Starten über SAN) wird nur in UEFI-Umgebungen unterstützt. Stellen Sie sicher, dass „UEFI“ als System-Startoption und nicht „Legacy“ eingestellt ist.

3.

Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) das

QLogic-Gerät ( Abbildung 10-2

) aus.

Abbildung 10-2. Systemeinrichtung: Geräteeinstellungen, Port-Auswahl

4.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Option

NIC Configuration

(NIC-Konfiguration) ( Abbildung 10-3

) aus und drücken dann auf ENTER (Eingabe).

182 AH0054602-01 F

10–FCoE-Konfiguration

FCoE – Starten über SAN

Abbildung 10-3. Systemeinrichtung: NIC-Konfiguration

5.

Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die Option

Boot Mode

(Startmodus) aus und drücken Sie dann auf ENTER (Eingabe), um

FCoE

als bevorzugten Startmodus auszuwählen.

ANMERKUNG

FCoE

wird nicht als Startoption aufgeführt, wenn die Funktion

FCoE Mode

(FCoE-Modus) auf der Port-Ebene deaktiviert wurde. Wenn die Option

Boot Mode

(Startmodus)

FCoE

lautet, stellen Sie sicher, dass die Funktion

FCoE Mode

(FCoE-Modus), wie unter Abbildung 10-4

dargestellt, aktiviert ist. FCoE wird nicht auf allen Adapterversionen unterstützt.

183 AH0054602-01 F

10–FCoE-Konfiguration

FCoE – Starten über SAN

Abbildung 10-4. Systemeinrichtung: FCoE-Modus aktiviert

So konfigurieren Sie die FCoE-Startparameter:

1.

Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die

Option

FCoE-Configuration

(FCoE-Konfiguration) aus und drücken dann auf ENTER (Eingabe).

2.

Wählen Sie auf der Seite „FCoE Configuration“ (FCoE-Konfiguration) die

Option

FCoE General Parameters

(Allgemeine FCoE-Parameter) aus und drücken dann auf ENTER (Eingabe).

3.

Drücken Sie auf der Seite „FCoE General Parameters“ (Allgemeine

FCoE-Parameter) (

Abbildung 10-5

) auf die Tasten UP ARROW (Pfeil nach oben) und DOWN ARROW (Pfeil nach unten), um einen Parameter auszuwählen. Drücken Sie anschließend auf ENTER (Eingabe), um die folgenden Werte auszuwählen oder einzugeben:

Fabric Discovery Retry Count

(Anzahl der

Fabric-Ermittlungsversuche): Standardwert oder nach Bedarf

LUN Busy Retry Count

(Anzahl an Wiederholungen bei „LUN besetzt“):

Standardwert oder nach Bedarf

184 AH0054602-01 F

10–FCoE-Konfiguration

FCoE – Starten über SAN

Abbildung 10-5. Systemeinrichtung: Allgemeine FCoE-Parameter

4.

Kehren Sie zurück zur FCoE-Konfigurationsseite zurück.

5.

Drücken Sie auf ESC und wählen Sie dann

FCoE Target Parameter

(FCoE-Zielparameter) aus.

6.

Drücken Sie ENTER (Eingabe).

7.

Aktivieren Sie im Menü „FCoE Target Parameters“ (FCoE-Zielparameter) die Option

Connect

(Verbinden) für das bevorzugte FCoE-Ziel.

8.

Geben Sie die Werte für die folgenden Parameter ( Abbildung 10-6 ) für das

iSCSI-Ziel ein und drücken dann auf ENTER (Eingabe):

World Wide Port Name Target

(World Wide Port Name-Ziel)

n

Boot LUN

(Start-LUN)

n

Wenn der Wert für

n

zwischen 1 und 8 liegt, können Sie acht

FCoE-Ziele konfigurieren.

185 AH0054602-01 F

10–FCoE-Konfiguration

FCoE – Starten über SAN

Abbildung 10-6. Systemeinrichtung: Allgemeine FCoE-Parameter

Windows FCoE – Starten über SAN

Zu den Informationen für „FCoE Boot from SAN (FCoE – Starten über SAN) unter

Windows sind die folgenden Informationen verfügbar:

Installation von FCoE-Boot für Windows Server 2012 R2 und 2016

Konfigurieren von FCoE

FCoE-Absturzspeicherbild

Installation von FCoE-Boot für Windows Server 2012 R2 und 2016

Für eine Installation mit dem Booten von Windows Server 2012R2/2016 über SAN benötigt QLogic eine „Slipstream“-DVD oder ein ISO-Abbild mit den neuesten

QLogic-Treibern. Siehe „Einfügen (Slipstreaming) der Adaptertreiber in die

Windows-Imagedateien“ auf Seite 188

.

Mit dem folgenden Verfahren wird das Image auf die Installation und das Starten im FCoE-Modus vorbereitet.

So richten Sie den FCoE-Boot-Vorgang für Windows Server 2012R2/2016 ein:

1.

Entfernen Sie alle lokalen Festplatten auf dem zu startenden System

(dem „Remote-System“).

2.

Bereiten Sie den Windows-BS-Installationsdatenträger vor, indem Sie den

Slipstreaming-Schritten unter „Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien“ auf Seite 188 folgen.

186 AH0054602-01 F

10–FCoE-Konfiguration

FCoE – Starten über SAN

3.

Laden Sie die aktuellsten QLogic FCoE-Boot-Abbilder auf den NVRAM des

Adapters.

4.

Konfigurieren Sie das FCoE-Ziel, um eine Verbindung vom Remote-Gerät zuzulassen. Vergewissern Sie sich, dass das Ziel über ausreichend

Speicherplatz für die neue Betriebssysteminstallation verfügt.

5.

Konfigurieren Sie UEFI HII zum Festlegen des FCoE-Starttyps auf dem

Adapter-Port, korrigieren Sie den Initiator und die Zielparameter für den

FCoE-Start.

6.

Speichern Sie die Einstellungen, und starten Sie das System neu. Das

Remote-System sollte eine Verbindung zum FCoE-Ziel herstellen und dann vom DVD-ROM-Gerät starten.

7.

Booten Sie von der DVD, und starten Sie die Installation.

8.

Befolgen Sie die Anweisungen auf dem Bildschirm.

9.

In dem Fenster, in dem die Liste der für die Installation verfügbaren

Festplatten angezeigt wird, sollte auch das FCoE-Ziellaufwerk angezeigt werden. Dieses Ziel ist ein Laufwerk, das über das FCoE-Startprotokoll angeschlossen ist und sich im externen FCoE-Ziel befindet.

10. Um mit der Installation für Windows Server 2012R2/2016 fortzufahren, wählen

Sie

Next

(Weiter) und folgen Sie dann den Anweisungen auf dem Bildschirm.

Der Server wird im Rahmen der Installation mehrmals neu gestartet.

11.

Nachdem der Server das Betriebssystem gestartet hat, sollten Sie das

Treiberinstallationsprogramm ausführen, um die Installation von

QLogic-Treibern und -Anwendungen abzuschließen.

Konfigurieren von FCoE

DCB ist standardmäßig auf QLogic 41

xxx

FCoE- und DCB-kompatiblen C-NICs aktiviert. QLogic 41

xxx

FCoE benötigt eine für DCB aktivierte Schnittstelle.

Verwenden Sie unter Windows-Betriebssystemen die QCC-Benutzeroberfläche oder ein Befehlszeilendienstprogramm für die Konfiguration der DCB-Parameter.

FCoE-Absturzspeicherbild

Die Absturzspeicherbild-Funktionalität wird derzeit nur für den FCoE-Start für den

FastLinQ Adapter der 41

xxx

-Serie unterstützt.

Es sind keine weiteren Konfigurationsschritte erforderlich, um die Generierung des iSCSI-Absturzspeicherbilds zu konfigurieren, wenn Sie sich im FCoE-Startmodus befinden.

187 AH0054602-01 F

10–FCoE-Konfiguration

Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien

Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien

So fügen Sie Adaptertreiber in die Windows-Imagedateien ein:

1.

Rufen Sie das aktuellste Treiberpaket für die jeweilige Windows

Server-Version (2012, 2012 R2 oder 2016) ab.

2.

Extrahieren Sie dieses Treiberpaket in ein Arbeitsverzeichnis: a.

Öffnen Sie eine Befehlszeilensitzung und navigieren Sie zu dem

Ordner, der das Treiberpaket enthält.

b.

Um das Treiberinstallationsprogramm zu starten, führen Sie den folgenden Befehl aus:

setup.exe /a

c.

Geben Sie im Feld

Network location

(Netzwerk-Speicherort) den

Pfad des Ordners ein, in den das Treiberpaket extrahiert werden soll.

Geben Sie beispielsweise

c:\temp

ein.

d.

Folgen Sie den Anweisungen des Treiberinstallationsprogramms, um die Treiber in den angegebenen Ordner zu installieren. Im vorliegenden

Beispiel werden die Treiberdateien in den folgenden Pfad installiert: c:\temp\Program File 64\QLogic Corporation\QDrivers

3.

Laden Sie das Windows Assessment and Deployment Kit (ADK) in

Version 10 von der Microsoft-Website herunter: https://developer.microsoft.com/en-us/windows/hardware/ windows-assessment-deployment-kit

4.

Öffnen Sie eine Befehlszeilensitzung (mit Administratorrechten) und navigieren Sie auf der Versions-CD zum Ordner

Tools\Slipstream

.

5.

Suchen Sie die Scriptdatei slipstream.bat

und führen Sie dann den folgenden Befehl aus:

slipstream.bat <path>

Hier steht

<path>

für das Laufwerk und den Unterordner, die Sie in Schritt 2

angegeben haben. Zum Beispiel:

slipstream.bat

"

c:\temp\Program Files 64\QLogic

Corporation\QDrivers

"

188 AH0054602-01 F

10–FCoE-Konfiguration

Konfigurieren von Linux FCoE-Offload

ANMERKUNG

Beachten Sie den folgenden Hinweis zum

Betriebssystem-Installationsmedium:

 Das Betriebssystem-Installationsmedium muss ein lokales Laufwerk sein. Netzwerkpfade als Betriebssystem-Installationsmedien werden nicht unterstützt.

 Das Script slipstream.bat

fügt die Treiberkomponenten in alle

SKUs ein, die durch das Betriebssystem-Installationsmedium unterstützt werden.

6.

Brennen Sie eine DVD mit der erstellten Treiber-ISO-Imagedatei, die sich im

Arbeitsverzeichnis befindet.

7.

Installieren Sie das Windows Server-Betriebssystem über die neue DVD.

Konfigurieren von Linux FCoE-Offload

Die Cavium FastLinQ Adapter der 41

xxx

-Serie FCoE-Software besteht aus einem

Kernelmodul mit der Bezeichnung „qedf.ko“ (qedf). Das qedf-Modul ist bei spezifischen Funktionalitäten abhängig von weiteren Teilen des Linux-Kernels:

qed.ko

ist das Linus eCore-Kernelmodul, das für bekannte Cavium

FastLinQ 41

xxx

-Hardware-Initialisierungsroutinen verwendet wird.

libfcoe.ko

ist die Linux FCoE-Kernelbibliothek, die erforderlich ist, um die FCoE Forwarder (FCF)-Ausschreibung und die Fabric-Anmeldung

(FLOGI) für das FCoE-Initialisierungsprotokoll (FIP) durchzuführen.

libfc.ko

ist die Linux FC-Kernelbibliothek, die für verschiedene Funktionen benötigt wird, darunter:

 Anmeldung und Registrierung am Nameserver

 rport-Sitzungsverwaltung

scsi_transport_fc.ko

ist die Linux FC SCSI-Übermittlungsbibliothek, die für die Remote-Port- und SCSI-Zielverwaltung verwendet wird.

Diese Module müssen geladen werden, bevor qedf in Betrieb genommen werden kann. Ansonsten wird möglicherweise ein Fehler wie „unresolved symbol“

(unaufgelöstes Symbol) ausgelöst. Wenn das qedf-Modul im Aktualisierungspfad der Distribution installiert ist, werden die benötigten Module automatisch durch modprobe geladen. Cavium Adapter der 41

xxx

-Serie unterstützen FCoE-Offload.

189 AH0054602-01 F

10–FCoE-Konfiguration

Unterschiede zwischen qedf und bnx2fc

ANMERKUNG

Wenn die Installation mit SLES 11 oder SLES 12 erfolgt, wird der

Parameter withfcoe=1

nicht benötigt, da Adapter der 41

xxx

-Serie den

Software-FCoE-Daemon nicht mehr benötigt.

Unterschiede zwischen qedf und bnx2fc

Zwischen qedf, dem Treiber für den Cavium FastLinQ 41

xxx

10/25GbE Controller

(FCoE), und dem vorherigen Cavium FCoE-Offload-Treiber, bnx2fc, bestehen signifikante Unterschiede. Unterschiede:

 qedf verbindet sich direkt mit einer PCI-Funktion, die durch den CNA ermittelt wird.

 qedf benötigt die Open-FCoE-Benutzerbereichswerkzeuge (fipvlan, fcoemon, fcoeadm) nicht für die Einleitung der Ermittlung.

 qedf löst FIP-VLAN-Anfragen direkt aus; das fipvlan-Dienstprogramm wird nicht benötigt.

 qedf benötigt keine FCoE-Schnittstelle, die von fipvlan für fcoemon erstellt wurde.

 qedf sitzt nicht auf dem NET-Gerät.

 qedf hängt nicht von Netzwerktreibern ab, wie z. B. bnx2x und cnic.

 qedf löst beim Verbinden automatisch die FCoE-Ermittlung aus (da es für die

FCoE-Schnittstellenerstellung nicht von fipvlan oder fcoemon abhängig ist).

ANMERKUNG

FCoE-Schnittstellen befinden sich nicht mehr oberhalb der

Netzwerkschnittstelle. Der qedf-Treiber erstellt automatisch

FCoE-Schnittstellen, und zwar getrennt von der Netzwerkschnittstelle.

Daher werden FCoE-Schnittstellen nicht im FCoE-Schnittstellen-Dialogfeld des Installationsprogramms angezeigt. Stattdessen werden die Festplatten automatisch als SCSI-Festplatten angezeigt. Das Verfahren ähnelt damit dem Verfahren der Fibre Channel-Treiber.

Konfigurieren von qedf.ko

Keine explizite Konfiguration für qedf.ko erforderlich. Der Treiber verbindet sich automatisch mit den eingeblendeten FCoE-Funktionen auf dem CNA und beginnt mit der Ermittlung. Diese Funktionalität ähnelt der Funktionalität und dem Betrieb des QLogic FC-Treibers „qla2xx“, im Gegensatz zum älteren Treiber „bnx2fc“.

190 AH0054602-01 F

10–FCoE-Konfiguration

Überprüfen von FCoE-Geräten in Linux

ANMERKUNG

Weitere Informationen zur FastLinQ-Treiberinstallation finden Sie unter

Kapitel 3 Treiberinstallation

.

Das Kernelmodul „load qedf.ko“ führt die folgenden Schritte aus:

# modprobe qed

# modprobe libfcoe

# modprobe qedf

Überprüfen von FCoE-Geräten in Linux

Führen Sie die folgenden Schritte aus, um zu überprüfen, ob die FCoE-Geräte nach der Installation und dem Laden des qedf-Kernelmoduls korrekt ermittelt wurden.

So überprüfen Sie die FCoE-Geräte in Linux:

1.

Überprüfen Sie lsmod, um zu kontrollieren, ob qedf and die verknüpften

Kernelmodule geladen wurden:

#

lsmod | grep qedf

69632 1 qedf libfc

143360 2 qedf,libfcoe scsi_transport_fc

65536 2 qedf,libfc qed

806912 1 qedf scsi_mod

262144 14 sg,hpsa,qedf,scsi_dh_alua,scsi_dh_rdac,dm_multipath,scsi_transport_fc, scsi_transport_sas,libfc,scsi_transport_iscsi,scsi_dh_emc,libata,sd_mod,sr_mod

2.

Überprüfen Sie dmesg, um sicherzustellen, dass die FCoE-Geräte ordnungsgemäß ermittelt wurden. In diesem Beispiel werden die zwei FCoE

CNA-Geräte mit den SCSI-Host-Nummern 4 und 5 ermittelt.

#

dmesg | grep qedf

[ 235.321185] [0000:00:00.0]: [qedf_init:3728]: QLogic FCoE Offload Driver v8.18.8.0.

....

[ 235.322253] [0000:21:00.2]: [__qedf_probe:3142]:4: QLogic FastLinQ FCoE

Module qedf 8.18.8.0, FW 8.18.10.0

[ 235.606443] scsi host4: qedf

....

[ 235.624337] [0000:21:00.3]: [__qedf_probe:3142]:5: QLogic FastLinQ FCoE

Module qedf 8.18.8.0, FW 8.18.10.0

[ 235.886681] scsi host5: qedf

191 AH0054602-01 F

10–FCoE-Konfiguration

Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4

....

[ 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s).

3.

Prüfen Sie auf ermittelte FCoE-Geräte über lsblk -S

:

#

lsblk -S

NAME HCTL TYPE VENDOR MODEL REV TRAN sdb 5:0:0:0 disk SANBlaze VLUN P2T1L0 V7.3 fc sdc 5:0:0:1 disk SANBlaze VLUN P2T1L1 V7.3 fc sdd 5:0:0:2 disk SANBlaze VLUN P2T1L2 V7.3 fc sde 5:0:0:3 disk SANBlaze VLUN P2T1L3 V7.3 fc sdf 5:0:0:4 disk SANBlaze VLUN P2T1L4 V7.3 fc sdg 5:0:0:5 disk SANBlaze VLUN P2T1L5 V7.3 fc sdh 5:0:0:6 disk SANBlaze VLUN P2T1L6 V7.3 fc sdi 5:0:0:7 disk SANBlaze VLUN P2T1L7 V7.3 fc sdj 5:0:0:8 disk SANBlaze VLUN P2T1L8 V7.3 fc sdk 5:0:0:9 disk SANBlaze VLUN P2T1L9 V7.3 fc

Die Konfigurationsinformationen für den Host befinden sich unter

/sys/class/fc_host/hostX

, wobei

X

für die Nummer des SCSI-Hosts steht. Im vorherigen Beispiel könnte

X

für 4 oder 5 stehen. Die Datei hostX

enthält Attribute für die FCoE-Funktion, z. B. den Worldwide-Port-Namen und die Fabric-ID.

Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4

So installieren Sie RHEL ab Version 7.4:

1.

Starten Sie vom RHEL 7.

x

-Installationsdatenträger, wobei das FCoE-Ziel bereits mit UEFI verbunden sein muss.

Install Red Hat Enterprise Linux 7.x

Test this media & install Red Hat Enterprise 7.x

Troubleshooting -->

Use the UP and DOWN keys to change the selection

Press 'e' to edit the selected item or 'c' for a command prompt

2.

Geben Sie für die Installation eines vorkonfigurierten Treibers

e

ein. Fahren

Sie ansonsten mit Schritt 7 fort.

3.

Wählen Sie die Kernel-Zeile aus und geben dann

e

ein.

192 AH0054602-01 F

10–FCoE-Konfiguration

Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4

4.

Führen Sie den folgenden Befehl aus und drücken Sie dann auf die

EINGABETASTE.

linux dd modprobe.blacklist=qed modprobe.blacklist=qede modprobe.blacklist=qedr modprobe.blacklist=qedi modprobe.blacklist=qedf

Sie können die Option inst.dd

statt der Option linux dd

verwenden.

5.

Während der Installation werden Sie dazu aufgefordert, den

vorkonfigurierten Treiber gemäß dem Beispiel in Abbildung 10-7 zu

installieren.

Abbildung 10-7. Aufforderung zur Installation des vorkonfigurierten Treibers

193 AH0054602-01 F

10–FCoE-Konfiguration

Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4

6.

Falls in Ihrer Konfiguration erforderlich, laden Sie den Datenträger mit dem

FastLinQ-Treiber-Update, wenn Sie dazu aufgefordert werden, weitere

Treiber-Datenträger einzulegen. Geben Sie ansonsten den Befehl c

ein, wenn es keine weiteren Treiber-Update-Datenträger für die Installation mehr gibt.

7.

Setzen Sie die Installation fort. Sie können den Datenträgertest übergehen.

Klicken Sie auf

Next

(Weiter), um die Installation fortzusetzen.

8.

Wählen Sie im Fenster „Configuration“ (Konfiguration) ( Abbildung 10-8

) die

Sprache aus, die während des Installationsvorgangs verwendet werden soll, und klicken Sie dann auf

Continue

(Weiter).

Abbildung 10-8. Konfiguration von Red Hat Enterprise Linux 7.4

9.

Klicken Sie im Fenster „Installation Summary“

(Installationszusammenfassung) auf

Installation Destination

(Installationsziel). Die Festplattenbeschriftung lautet

sda

und weist damit auf eine Einzelpfad-Installation hin. Wenn Sie sich für eine Multipfad-Installation entschieden hatten, trägt die Festplatte ein Gerätezuordnungsetikett (Device

Mapper Label).

10. Wählen Sie im Abschnitt

Specialized & Network Disks

(Spezielle und

Netzwerklaufwerke) „FCoE LUN“ aus.

11.

Geben Sie das Passwort des Root-Benutzers ein und klicken dann auf

Next

(Weiter), um die Installation abzuschließen.

12. Fügen Sie während des ersten Startvorgangs die folgende

Kernel-Befehlszeile hinzu, die in die Shell eingehen soll.

rd.driver.pre=qed,qede,qedr,qedf,qedi

13. Bearbeiten Sie nach einem erfolgreichen Systemstart die Datei

/etc/modprobe.d/anaconda-blacklist.conf

, um den Sperrlisteneintrag für den ausgewählten Treiber zu entfernen.

194 AH0054602-01 F

10–FCoE-Konfiguration

Konfigurieren des FCoE-Startvorgangs über SAN für RHEL ab Version 7.4

14. Bauen Sie die Ramdisk neu auf, indem Sie den Befehl dracut -f ausführen und anschließend einen Neustart einleiten.

ANMERKUNG

Deaktivieren Sie die Dienste „lldpad“ und „fcoe“, die für Software-FCoE verwendet werden. Sind sie aktiv, können Sie den normalen Betrieb des

195 AH0054602-01 F

11

SR-IOV-Konfiguration

SR-IOV (Single Root Input/Output-Virtualisierung) ist eine Spezifikation von PCI

SIG, mit der ein einzelnes PCIe-Gerät als mehrere, separate physische

PCIe-Geräte angezeigt werden kann. SR-IOV ermöglicht die Isolation von

PCIe-Ressourcen zum Zwecke der Leistung, Interoperabilität und Verwaltbarkeit.

ANMERKUNG

Einige SR-IOV-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert.

In diesem Kapitel finden Sie Anweisungen für Folgendes:

Konfigurieren von SR-IOV unter Windows

„Konfigurieren von SR-IOV unter Linux“ auf Seite 203

„Konfigurieren von SR-IOV unter VMware“ auf Seite 210

Konfigurieren von SR-IOV unter Windows

So konfigurieren Sie SR-IOV unter Windows:

1.

Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf

System BIOS Settings

(System-BIOS-Einstellungen).

2.

Klicken Sie auf der Seite „System BIOS Settings“ (Sytem-BIOS-Einstellungen) auf

Integrated Devices

(Integrierte Geräte).

3.

Führen Sie auf der Seite „Integrated Devices“ (Integrierte Geräte)

(

Abbildung 11-1 ) die folgenden Schritte aus:

a.

Setzen Sie

Virtualization Mode

(Virtualisierungsmodus) auf

SR-IOV

oder

NPAR+SR-IOV

, wenn Sie den NPAR-Modus verwenden.

b.

Klicken Sie auf

Back

(Zurück).

196 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Windows

Abbildung 11-1. Systemeinrichtung für SR-IOV: Integrierte Geräte

4.

Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) für den ausgewählte Adapter auf

Device Level Configuration

(Konfiguration auf

Geräteebene).

5.

Führen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) unter

„Device Level Configuration“ (Konfiguration auf Geräteebene)

(

Abbildung 11-2 ) die folgenden Schritte aus:

a.

Setzen Sie

Virtualization Mode

(Virtualisierungsmodus) auf

SR-IOV

oder

NPAR+SR-IOV

, wenn Sie den NPAR-Modus verwenden.

b.

Klicken Sie auf

Back

(Zurück).

Abbildung 11-2. Systemeinrichtung für SR-IOV: Konfiguration auf Geräteebene

6.

Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf

Finish

(Fertigstellen).

197 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Windows

7.

Wenn das Nachrichtenfeld „Warning - Saving Changes“

(Warnung – Änderungen werden gespeichert) angezeigt wird, klicken Sie zum Speichern der Konfiguration auf

Yes

(Ja).

8.

Klicken Sie im Nachrichtenfeld „Success - Saving Changes“

(Erfolg – Änderungen werden gespeichert) auf

OK

.

9.

So aktivieren Sie SR-IOV auf dem Miniport-Adapter: a.

Rufen Sie den Geräte-Manager auf.

b.

Klicken Sie unter „Miniport Properties“ (Miniport-Eigenschaften) auf die

Registerkarte

Advanced

(Erweitert).

c.

Wählen Sie auf der Seite „Advanced properties“ (Erweiterte

Eigenschaften) (

Abbildung 11-3

) unter

Property

(Eigenschaft) die

Option

SR-IOV

aus und setzen Sie den Wert auf

Enabled

(Aktiviert).

d.

Klicken Sie auf

OK

.

Abbildung 11-3. Adapter-Eigenschaften – Erweitert: SR-IOV aktivieren

10. So erstellen Sie einen Switch für eine virtuelle Maschine mit SR-IOV

(

Abbildung 11-4 auf Seite 199

): a.

Starten Sie Hyper-V Manager.

b.

Wählen Sie

Virtual Switch Manager

(Manager für virtuellen Switch). c.

Geben Sie in das Feld

Name

(Name) einen Namen für den virtuellen

Switch ein.

d.

Wählen Sie unter

Connection type

(Verbindungstyp)

External network

(Externes Netzwerk) aus.

198 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Windows e.

Aktivieren Sie das Kontrollkästchen

Enable single-root I/O virtualization (SR-IOV)

(Single-Root-E/A-Virtualisierung (SR-IOV) aktivieren) und klicken Sie dann auf

Apply

(Anwenden).

ANMERKUNG

Stellen Sie sicher, dass Sie bei der Erstellung des virtuellen

Switches SR-IOV aktivieren. Diese Option ist nach der Erstellung des virtuellen Switches nicht mehr verfügbar.

Abbildung 11-4. Manager für virtuellen Switch: SR-IOV aktivieren

199 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Windows f.

Das Nachrichtenfeld „Apply Networking Changes“ (Netzwerkänderungen anwenden) zeigt an, dass

ausstehende Änderungen die

Netzwerkkonnektivität unterbrechen können

. Klicken Sie zum

Speichern Ihrer Änderungen und zum Fortfahren auf

Yes

(Ja).

11.

Um den Funktionsumfang des Switches für die virtuelle Maschine nutzen zu können, führen Sie den folgenden Windows PowerShell-Befehl aus:

PS C:\Users\Administrator>

Get-VMSwitch -Name SR-IOV_vSwitch | fl

Die Ausgabe des Befehls

Get-VMSwitch

umfasst die folgenden

SR-IOV-Funktionen:

12. So erstellen Sie eine virtuelle Maschine (VM) und exportieren die virtuelle

Funktion (VF) in die VM: a.

Erstellen Sie eine virtuelle Maschine.

b.

Fügen Sie den VM-Netzwerkadapter zur virtuellen Maschine hinzu.

c.

Weisen Sie dem VM-Netzwerkadapter einen virtuellen Switch hinzu.

d.

Aktivieren Sie im Dialogfeld „Settings for VM <VM_Name>“

(Einstellungen für VM <Name der virtuellen Maschine>)

( Abbildung 11-5

) auf der Seite, „Hardware Acceleration“

(Hardware-Beschleunigung) unter

Single-root I/O virtualization

(Single-Root E/A-Virtualisierung) das Kontrollkästchen

Enable

SR-IOV

(SR-IOV aktivieren) und klicken Sie dann auf

OK

.

ANMERKUNG

Nach der Erstellung der Verbindung für den virtuellen Adapter kann die SR-IOV-Einstellung jederzeit aktiviert oder deaktiviert werden (selbst bei aktivem Datenverkehr).

200 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Windows

Abbildung 11-5. Einstellungen für VM: SR-IOV aktivieren

13. Installieren Sie die QLogic-Treiber für die in der VM erkannten Adapter.

Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers

(verwenden Sie nicht die enthaltenen Treiber).

ANMERKUNG

Stellen Sie sicher, dass Sie dasselbe Treiberpaket auf der virtuellen

Maschine und dem Host-System verwenden. Verwenden Sie beispielsweise dieselbe qeVBD-und qeND-Treiberversion auf der virtuellen Maschine unter Windows und im Windows-Hyper-V-Host.

201 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Windows

Nach der Installation der Treiber wird der QLogic-Adapter in der VM aufgelistet.

Abbildung 11-6

zeigt ein Beispiel.

Abbildung 11-6. Geräte-Manager: VM mit QLogic-Adapter

14. Führen Sie zum Anzeigen der SR-IOV-VF-Details den folgenden Windows

PowerShell-Befehl aus:

PS C:\Users\Administrator>

Get-NetadapterSriovVf

Abbildung 11-7

zeigt ein Beispiel für die Ausgabe an.

Abbildung 11-7. Windows PowerShell-Befehl: Get-NetadapterSriovVf

202 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Linux

Konfigurieren von SR-IOV unter Linux

So konfigurieren Sie SR-IOV unter Linux:

1.

Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf

System BIOS Settings

(System-BIOS-Einstellungen).

2.

Klicken Sie auf der Seite „System BIOS Settings“ (Sytem-BIOS-Einstellungen) auf

Integrated Devices

(Integrierte Geräte).

3.

Führen Sie auf der Seite „System Integrated Devices“ (Systemintegrierte

Geräte) ( Abbildung 11-1 auf Seite 197 ) die folgenden Schritte aus:

a.

Setzen Sie die Option

SR-IOV Global Enable

(SR-IOV global aktivieren) auf

Enabled

(Aktiviert).

b.

Klicken Sie auf

Back

(Zurück).

4.

Klicken Sie auf der Seite „System BIOS Settings“

(System-BIOS-Einstellungen) auf

Processor Settings

(Prozessoreinstellungen).

5.

Führen Sie auf der Seite „Processor Settings“ (Prozessoreigenschaften)

(

Abbildung 11-8 ) die folgenden Schritte aus:

a.

Setzen Sie die Option

Virtualization Technology

(Virtualisierungstechnologie) auf

Enabled

(Aktiviert).

b.

Klicken Sie auf

Back

(Zurück).

203 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Linux

Abbildung 11-8. Systemeinrichtung: Prozessoreinstellungen für SR-IOV

6.

Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung) die Option

„Device Settings“ (Geräteeinstellungen) aus.

7.

Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen)

Port 1

für den QLogic-Adapter aus.

8.

Führen Sie auf der Seite „Device Level Configuration“ (Konfiguration auf

Geräteebene) ( Abbildung 11-9 ) die folgenden Schritte aus:

a.

Setzen Sie

Virtualization Mode

(Virtualisierungsmodus) auf

SR-IOV

.

b.

Klicken Sie auf

Back

(Zurück).

204 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Linux

Abbildung 11-9. Systemeinrichtung für SR-IOV: Integrierte Geräte

9.

Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf

Finish

(Fertigstellen), speichern Sie Ihre Einstellungen und starten Sie das

System anschließend neu.

10. So aktivieren und überprüfen Sie die Virtualisierung: a.

Öffnen Sie die Datei grub.conf

und konfigurieren Sie den Parameter iommu

, wie unter

Abbildung 11-10

dargestellt.

 Fügen Sie bei Intel-basierten Systemen intel_iommu=on

hinzu.

 Fügen Sie bei AMD-basierten Systemen amd_iommu=on

hinzu.

205 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Linux

Abbildung 11-10. Bearbeiten der Datei „grub.conf“ für SR-IOV

b.

Speichern Sie die Datei grub.conf

und starten Sie das System anschließend neu.

c.

Um zu überprüfen, ob die Änderungen umgesetzt wurden, führen Sie den folgenden Befehl aus:

dmesg | grep -I iommu

Das Ergebnis eines erfolgreichen Befehls für die

E/A-Ausgabe-Speicherverwaltungseinheit (IOMMU) könnte beispielsweise wie folgt aussehen:

Intel-IOMMU: enabled d.

Um die VF-Details (Anzahl der VFs und Gesamtzahl der VFs) anzuzeigen, führen Sie folgenden Befehl aus:

find /sys/|grep -I sriov

206 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Linux

11.

Aktivieren Sie für einen spezifischen Port eine VF-Menge.

a.

Führen Sie den folgenden Befehl aus, um beispielsweise 8 VFs auf der PCI-Instanz 04:00.0 (Bus 4, Gerät 0, Funktion 0) zu aktivieren:

[root@ah-rh68 ~]# echo 8 >

/sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs

b.

Überprüfen Sie die Befehlsausgabe ( Abbildung 11-11 ), um zu

bestätigen, dass tatsächliche VFs auf dem Bus 4, auf Gerät 2 (über den Parameter 0000:00:02.0) und über die Funktionen 0 bis 7 erstellt wurden. Beachten Sie, dass die tatsächliche Gerät-ID von den PFs

(in diesem Beispiel 8070) im Vergleich zu den VFs (in diesem Beispiel

9090) abweicht.

Abbildung 11-11. Befehlsausgabe für sriov_numvfs

12. Führen Sie zum Anzeigen einer Liste alle PF- und VF-Schnittstellen den folgenden Befehl aus:

#

ip link show | grep -i vf -b2

207 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Linux

Abbildung 11-12

zeigt ein Beispiel für die Ausgabe an.

Abbildung 11-12. Befehlsausgabe für den Befehl „ip link show“

13. Weisen Sie MAC-Adressen zu und überprüfen Sie diese: a.

Führen Sie zum Zuweisen einer MAC-Adresse auf der VF den folgenden Befehl aus:

ip link set <pf device> vf <vf index> mac <mac address>

b.

Stellen Sie sicher, dass die VF-Schnittstelle mit der zugewiesenen

Schnittstelle betriebsbereit ist.

14. Schalten Sie die VM aus und verbinden Sie die VF. (Einige Betriebssysteme unterstützen das Anschließen von VFs an die VM im laufenden Betrieb, also

über das Hot-Plug-Verfahren.) a.

Klicken Sie im Dialogfeld „Virtual Machine“ (Virtuelle Maschine)

( Abbildung 11-13

) auf

Add Hardware

(Hardware hinzufügen).

208 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter Linux

Abbildung 11-13. RHEL68 – Virtuelle Maschine

b.

Klicken Sie im linken Fenster des Dialogfelds „Add New Virtual

Hardware“ (Neue virtuelle Hardware hinzufügen) (

Abbildung 11-14

) auf

PCI Host Device

(PCI-Host-Gerät). c.

Wählen Sie im rechten Fenster ein Host-Gerät aus.

d.

Klicken Sie auf

Finish

(Fertigstellen).

209 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter VMware

Abbildung 11-14. Neue virtuelle Hardware hinzufügen

15. Schalten Sie die virtuelle Maschine ein und führen Sie dann den folgenden

Befehl aus:

check lspci -vv|grep -I ether

16. Installieren Sie die Treiber für die in der VM erkannten Adapter. Verwenden

Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers (verwenden

Sie nicht die enthaltenen Treiber). Es muss die gleiche Treiberversion auf dem Host und der VM installiert sein.

17. Fügen Sie bei Bedarf weitere VFs zur VM hinzu.

Konfigurieren von SR-IOV unter VMware

So konfigurieren Sie SR-IOV unter VMware:

1.

Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf

System BIOS Settings

(System-BIOS-Einstellungen).

2.

Klicken Sie auf der Seite „System BIOS Settings“ (Sytem-BIOS-Einstellungen) auf

Integrated Devices

(Integrierte Geräte).

3.

Führen Sie auf der Seite „Integrated Devices“ (Integrierte Geräte) (siehe

Abbildung 11-1 auf Seite 197 ) die folgenden Schritte aus:

a.

Setzen Sie die Option

SR-IOV Global Enable

(SR-IOV global aktivieren) auf

Enabled

(Aktiviert).

b.

Klicken Sie auf

Back

(Zurück).

4.

Klicken Sie im Fenster „System Setup“ (Systemeinrichtung) auf die Option

Device Settings

(Geräteeinstellungen).

210 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter VMware

5.

Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) einen Port für den 25-G-Adapter der 41

xxx

-Serie.

6.

Führen Sie auf der Seite „Device Level Configuration“ (Konfiguration auf

Geräteebene) ( Abbildung 11-2 auf Seite 197 ) die folgenden Schritte aus:

a.

Setzen Sie

Virtualization Mode

(Virtualisierungsmodus) auf

SR-IOV

.

b.

Klicken Sie auf

Back

(Zurück).

7.

Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf

Finish

(Fertigstellen).

8.

Speichern Sie die Konfigurationseinstellungen und starten Sie das System neu.

9.

Um die erforderliche Anzahl an VFs pro Port (in diesem Beispiel 16 auf jedem Port eines Dual-Port-Adapters) zu aktivieren, führen Sie den folgenden Befehl aus:

"esxcfg-module -s "max_vfs=16,16" qedentv"

ANMERKUNG

Jede Ethernet-Funktion von Adapter der 41

xxx

-Serie muss über einen eigenen Eintrag verfügen.

10. Starten Sie den Host neu.

11.

Um zu überprüfen, ob die Änderungen auf der Modulebene umgesetzt wurden, führen Sie den folgenden Befehl aus:

"esxcfg-module -g qedentv"

[root@localhost:~] esxcfg-module -g qedentv qedentv enabled = 1 options = 'max_vfs=16,16'

12. Um zu überprüfen, ob die VFs tatsächlich erstellt wurden, führen Sie den

Befehl lspci

wie folgt aus:

[root@localhost:~]

lspci | grep -i QLogic | grep -i 'ethernet\|network' | more

0000:05:00.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx 10/25

GbE Ethernet Adapter [vmnic6]

0000:05:00.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx 10/25

GbE Ethernet Adapter [vmnic7]

0000:05:02.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_0]

0000:05:02.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_1]

0000:05:02.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_2]

211 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter VMware

.

.

0000:05:02.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xQL41xxxxx

Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_3]

.

0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15]

0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0]

0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1]

.

.

0000:05:0e.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_2]

0000:05:0e.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_3]

.

0000:05:0f.6 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_14]

0000:05:0f.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series

10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_15]

13. Verbinden Sie VFs wie folgt mit der VM: a.

Schalten Sie die virtuelle Schnitstelle ein und verbinden Sie die VF.

(Einige Betriebssysteme unterstützen das Anschließen von VFs an die

VM im laufenden Betrieb, also über das Hot-Plug-Verfahren.) b.

Fügen Sie einen Host zur VMware vCenter Server Virtual Appliance

(vCSA) hinzu.

c.

Klicken Sie auf die Option

Edit Settings

(Einstellungen bearbeiten) der VM.

14. Füllen Sie das Dialogfeld „Edit Settings“ (Einstellungen bearbeiten)

(

Abbildung 11-15 ) wie folgt aus:

a.

Wählen Sie im Feld

New Device

(Neues Gerät) die Option

Network

(Netzwerk) aus und klicken Sie dann auf

Add

(Hinzufügen).

b.

Wählen Sie

SR-IOV Passthrough

(SR-IOV-PassThrough) als

Adapter Type

(Adaptertyp) aus.

c.

Wählen Sie für

Physical Function

(Physische Funktion) die QLogic

VF aus.

d.

Um Ihre Konfigurationsänderungen zu speichern und dieses

Dialogfeld zu schließen, klicken Sie auf

OK

.

212 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter VMware

Abbildung 11-15. VMware-Host – Einstellungen bearbeiten

15. Um die VFs pro Port zu überprüfen, führen Sie den Befehl esxcli

wie folgt aus:

[root@localhost:~]

esxcli network sriovnic vf list -n vmnic6

VF ID Active PCI Address Owner World ID

----- ------ ----------- --------------

0 true 005:02.0 60591

213 AH0054602-01 F

11–SR-IOV-Konfiguration

Konfigurieren von SR-IOV unter VMware

1 true 005:02.1 60591

2 false 005:02.2 -

3 false 005:02.3 -

4 false 005:02.4 -

5 false 005:02.5 -

6 false 005:02.6 -

7 false 005:02.7 -

8 false 005:03.0 -

9 false 005:03.1 -

10 false 005:03.2 -

11 false 005:03.3 -

12 false 005:03.4 -

13 false 005:03.5 -

14 false 005:03.6 -

15 false 005:03.7 -

16. Installieren Sie die QLogic-Treiber für die in der VM erkannten Adapter.

Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers

(verwenden Sie nicht die enthaltenen Treiber). Es muss die gleiche

Treiberversion auf dem Host und der VM installiert sein.

17. Schalten Sie die VM ein und führen Sie dann den Befehl ifconfig -a aus, um zu überprüfen, dass die hinzugefügte Netzwerkschnittstelle aufgeführt wird.

18.

Fügen Sie bei Bedarf weitere VFs zur VM hinzu.

214 AH0054602-01 F

12

NVMe-oF-Konfiguration mit RDMA

Mit der Funktion für den Zugriff auf den nicht-flüchtigen Speicher über Fabrics

(NVMe-oF) ist es möglich, die Verwendung alternativer Transportmöglichkeiten auf

PCIe zu aktivieren, um die Spanne zu erweitern, über die ein NVMe-Host-Gerät und ein NVMe-Speichertreiber oder Subsystem sich miteinander verbinden können.

NVMe-oF definiert eine allgemeine Architektur, die einen Bereich von

Speichernetzwerk-Fabrics für das NVMe-Block-Speicherprotokoll über einen

Speichernetzwerk-Fabric unterstützt. Diese Architektur umfasst das Archivieren einer Frontschnittstelle in Speichersysteme, das Skalieren auf eine große Anzahl von NVMe-Geräten und das Erweitern der Distanz innerhalb eines Rechenzentrums,

über das auf NVMe-Geräte und NVMe-Subsysteme zugegriffen werden kann.

Die in diesem Kapitel beschriebenen NVMe-oF-Konfigurationsverfahren und

-Optionen gelten für ethernetbasierte RDMA-Protokolle, darunter auch RoCE und iWARP. Die Entwicklung von NVMe-oF mit RDMA wird durch eine technische

Untergruppe der NVMe-Organisation definiert.

Dieses Kapitel zeigt, wie NVMe-oF auf einem einfachen Netzwerk konfiguriert wird. Die Beispielnetzwerk umfasst Folgendes:

 Zwei Server: einen Initiator und ein Ziel. Der Zielserver ist mit einem

PCIe-SSD-Laufwerk ausgestattet.

 Betriebssystem: RHEL 7.4 oder SLES 12 SP3 auf beiden Servern

 Zwei Adapter: Ein auf jedem Server installierter Adapter der 41

xxx

-Serie.

Jeder Port kann unabhängig zur Verwendung von RoCE, RoCEv2 oder iWARP als RDMA-Protokoll, über das NVMe-oF ausgeführt wird, konfiguriert werden.

 Bei RoCE und RoCEv2 wurde ein optionaler Switch für Data Center

Bridging (DCB), die entsprechende Richtlinie für die Servicequalität (QoS) und vLANs konfiguriert, um die Priorität der RoCE/RoCEv2

DCB-P-Datenübertragungsklasse für NVMe-oF zu tragen. Der Switch wird nicht benötigt, wenn NVMe-oF iWARP verwendet.

215 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Abbildung 12-1 stellt ein Beispielnetzwerk dar.

Adapter der 41

xxx

-Serie

Adapter der 41

xxx

-Serie

Abbildung 12-1. NVMe-oF-Netzwerk

Der NVMe-oF-Konfigurationsprozess umfasst die folgenden Verfahren:

1.

Installieren von Gerätetreibern auf beiden Servern

2.

Konfigurieren des Zielservers

3.

Konfigurieren des Initiatorservers

4.

Vorbehandeln des Zielservers

5.

Testen der NVMe-oF-Geräte

6.

Optimieren der Leistung

216 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Installieren von Gerätetreibern auf beiden Servern

Installieren von Gerätetreibern auf beiden Servern

Installieren Sie nach der Installation Ihres Betriebssystems (RHEL 7.4 oder SLES

12 SP3) die Gerätetreiber auf beiden Servern. Gehen Sie zum Aufrüsten des

Kernels auf den aktuellen Linux-Upstream-Kernel zu <URL>.

https://www.kernel.org/pub/linux/kernel/v4.x/

1.

Installieren und laden Sie die aktuellen FastLinQ-Treiber (QED, QEDE, libqedr/QEDR), indem Sie allen Installationsanweisungen in der Infodatei folgen.

2.

(Optional) Wenn Sie den BS-Kernel aufgerüstet haben, müssen Sie die aktuellsten Treiber wie folgt neu installieren und laden: a.

Installieren Sie die aktuellste FastLinQ-Firmware gemäß den in der

INFO-Datei genannten Installationsanweisungen.

b.

Installieren Sie die BS-RDMA-Support-Anwendungen und

Bibliotheken, indem Sie die folgenden Befehle eingeben und ausführen:

#

yum groupinstall "Infiniband Support"

#

yum install tcl-devel libibverbs-devel libnl-devel glib2-devel libudev-devel lsscsi perftest

#

yum install gcc make git ctags ncurses ncurses-devel openssl* openssl-devel elfutils-libelf-devel*

c.

Um sicherzustellen, dass sich der NVMe-OFED-Support im ausgewählten BS-Kernel befindet, geben Sie den folgenden Befehl ein und führen ihn aus:

make menuconfig

d.

Stellen Sie unter

Device Drivers

(Gerätetreiber) sicher, dass

Folgendes aktiviert (auf

M

gesetzt) ist:

NVM Express block devices

NVM Express over Fabrics RDMA host driver

NVMe Target support

NVMe over Fabrics RDMA target support e.

(Optional) Wenn die Optionen für

Device Drivers

(Gerätetreiber) nicht bereits vorhanden sind, bauen Sie den Kernel durch das Eingeben und

Ausführen der folgenden Befehle wieder auf:

#

make

#

make modules

#

make modules_install

#

make install

217 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Konfigurieren des Zielservers f.

Wenn Änderungen am Kernel vorgenommen wurden, starten Sie in diesen neuen BS-Kernel neu. Weitere Anweisungen zum Festlegen des Standard-Startkernel finden Sie unter: https://wiki.centos.org/HowTos/Grub2

3.

Aktivieren und starten Sie den RDMA-Dienst wie folgt:

#

systemctl enable rdma.service

#

systemctl start rdma.service

Ignorieren Sie den Fehler

RDMA Service Failed

(RDMA-Dienst fehlgeschlagen). Alle OFED-Module, die für QEDR benötigt werden, sind bereits geladen.

Konfigurieren des Zielservers

Konfigurieren Sie den Ziel-Server nach dem Neustartprozess. Sobald der Server betriebsbereit ist, ist für alle Änderungen an der Konfiguration ein Neustart erforderlich. Wenn Sie für die Konfiguration des Zielservers ein Start-Script verwenden, erwägen Sie, das Script (über den Befehl wait

oder einen ähnlichen

Befehl) nach Bedarf anzuhalten, um damit sicherzustellen, dass jeder Befehl vor der Ausführung des nächsten Befehls ausgeführt wurde.

So konfigurieren Sie den Zieldienst:

1.

Laden Sie die Zielmodule. Führen Sie die folgenden Befehle nach jedem einzelnen Server-Neustart aus:

#

modprobe qedr

#

modprobe nvmet; modprobe nvmet-rdma

#

lsmod | grep nvme

(Bestätigen Sie, dass die Module geladen wurden.)

2.

Erstellen Sie den qualifizierten Namen für NVMe (NQN) für das

Ziel-Subsystem mit dem Namen, der durch

<nvme-subsystem-name> angegeben wurde. Verwenden Sie die NVMe-oF-Spezifikationen. Beispiel: nqn.<YEAR>-<Month>.org.<IHR-your-company>

.

#

mkdir /sys/kernel/config/nvmet/subsystems/<nvme-subsystem-name>

#

cd /sys/kernel/config/nvmet/subsystems/<nvme-subsystem-name>

3.

Erstellen Sie nach Bedarf mehrere eindeutige NQNs für zusätzliche

NVMe-Geräte.

218 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Konfigurieren des Zielservers

4.

Legen Sie die unter

Tabelle 12-1 aufgelisteten Zielparameter fest.

Tabelle 12-1. Zielparameter

Befehl

#

echo 1 > attr_allow_any_host

#

mkdir namespaces/1

#

echo -n /dev/nvme0n1 >namespaces/

1/device_path

Beschreibung

Ermöglichen Sie es allen Hosts, eine Verbindung aufzubauen.

Erstellen Sie einen Namespace.

Legen Sie den NVMe-Gerätepfad fest. Der

NVMe-Gerätepfad kann sich von System zu System unterscheiden. Überprüfen Sie den Gerätepfad anhand des Befehls lsblk

. Dieses System hat zwei NVMe-Geräte: nvme0n1

und nvme1n1

.

#

echo 1 > namespaces/1/enable

#

mkdir /sys/kernel/config/nvmet/ ports/1

#

cd /sys/kernel/config/nvmet/ports/1

#

echo 1.1.1.1 > addr_traddr

Aktivieren Sie den Namespace.

Erstellen Sie NVMe-Port 1.

#

#

#

echo rdma > addr_trtype

echo 4420 > addr_trsvcid

echo ipv4 > addr_adrfam

Legen Sie die gleiche IP-Adresse fest. So steht beispielsweise „1.1.1.1“ für die IP-Adresse des

Zielports des Adapter der 41

xxx

-Serie.

Legen Sie den Transporttyp auf RDMA fest.

Legen Sie die RDMA-Portnummer fest. Die Steckplatz-Portnummer für NVMe-oF ist in der Regel

4420. Es kann jedoch jede Portnummer verwendet werden, wenn Sie über die gesamte Konfiguration hinweg einheitlich verwendet wird.

Legen Sie den IP-Adresstyp fest.

5.

Erstellen Sie eine symbolische Verbindung (symlink) zum neu erstellten

NQN-Subsystem:

#

ln -s /sys/kernel/config/nvmet/subsystems/ nvme-subsystem-name subsystems/nvme-subsystem-name

219 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Konfigurieren des Initiatorservers

6.

Bestätigen Sie wie folgt, dass das NVMe-Ziel auf dem Port hört:

#

dmesg | grep nvmet_rdma

[ 8769.470043] nvmet_rdma: enabling port 1 (1.1.1.1:4420)

Konfigurieren des Initiatorservers

Sie konfigurieren den Initiator-Server nach dem Neustartprozess. Sobald der

Server betriebsbereit ist, ist für alle Änderungen an der Konfiguration ein Neustart erforderlich. Wenn Sie für die Konfiguration des Initiator-Servers ein Start-Script verwenden, erwägen Sie, das Script (über den Befehl wait

oder einen ähnlichen

Befehl) nach Bedarf anzuhalten, um damit sicherzustellen, dass jeder Befehl vor der Ausführung des nächsten Befehls ausgeführt wurde.

So konfigurieren Sie den Initiator-Server:

1.

Laden Sie die NVMe-Module. Geben Sie die folgenden Befehle nach jedem einzelnen Server-Neustart aus:

#

modprobe qedr

#

modprobe nvme-rdma

2.

Laden Sie das Initiatordienstprogramm

nvme-cli herunter, und kompilieren und installieren Sie es. Führen Sie die folgenden Befehle bei der ersten Konfiguration aus. Es ist nicht erforderlich, diese Befehle nach jedem einzelnen Neustart auszuführen.

#

git clone https://github.com/linux-nvme/nvme-cli.git

#

cd nvme-cli

#

make && make install

3.

Überprüfen Sie die Installationsversion wie folgt:

#

nvme version

4.

Ermitteln Sie das NVMe-oF-Ziel wie folgt:

#

nvme discover -t rdma -a 1.1.1.1 -s 1023

Notieren Sie die Subsystem-NQN ( subnqn

) des ermittelten Ziels

(

Abbildung 12-2 ) zur Verwendung in Schritt 5

.

220 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Konfigurieren des Initiatorservers

Abbildung 12-2. Subsystem-NQN

5.

Stellen Sie anhand der NQN eine Verbindung zum ermittelten NVMe-oF-Ziel

( nvme-qlogic-tgt1

) her. Führen Sie den folgenden Befehl nach jedem einzelnen Server-Neustart aus. Zum Beispiel:

#

nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023

6.

Bestätigen Sie wie folgt die NVMe-oF-Zielverbindung mit dem

NVMe-oF-Gerät:

#

dmesg | grep nvme

#

lsblk

#

list nvme

Abbildung 12-3

zeigt ein Beispiel.

Abbildung 12-3. NVMe-oF-Verbindung bestätigen

221 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Vorbehandeln des Zielservers

Vorbehandeln des Zielservers

NVMe-Zielserver, die vorkonfiguriert getestet werden, zeigen eine höhere Leistung als erwartet. Bevor Sie einen Benchmarking-Test durchführen, muss der Zielserver zunächst

vorausgefüllt

oder

vorbehandelt

werden.

So behandeln Sie den Zielserver vor:

1.

Führen Sie ein sicheres Löschen (Secure-Erase) des Zielservers mit anbieterspezifischen Werkzeugen (ähnlich dem Formatieren) durch. In diesem Test wird ein Intel NVMe SSD-Gerät verwendet, für das das Intel

Data Center Tool benötigt wird, das über den folgenden Link heruntergeladen werden kann: https://downloadcenter.intel.com/download/23931/Intel-Solid-State-Drive-

Data-Center-Tool

2.

Behandeln Sie den Zielserver ( nvme0n1

) mit Daten, die gewährleisten, dass der gesamte verfügbare Speicher gefüllt ist. In diesem Beispiel wird das

„DD“-Festplattendienstprogramm verwendet:

#

dd if=/dev/zero bs=1024k of=/dev/nvme0n1

Testen der NVMe-oF-Geräte

Vergleichen Sie die Latenz des lokalen NVMe-Geräts auf dem Zielserver mit der des NVMe-oF-Geräts auf dem Initiatorserver, um die Latenz zu zeigen, um die das System durch NVMe erweitert wurde.

So testen Sie das NVMe-oF-Gerät:

1.

Aktualisieren Sie die Repository (Repo)-Quelle und installieren Sie wie folgt das Flexible Input/Output (FIO)-Benchmark-Dienstprogramm auf dem Ziel- und dem Initiatorserver:

#

yum install epel-release

#

yum install fio

Abbildung 12-4. FIO-Dienstprogramm-Installation

222 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Testen der NVMe-oF-Geräte

2.

Führen Sie das FIO-Dienstprogramm aus, um die Latenz des

Initiator-NVMe-oF-Geräts zu messen. Geben Sie den folgenden Befehl aus:

#

fio --filename=/dev/nvme0n1 --direct=1 --time_based

--rw=randread --refill_buffers --norandommap --randrepeat=0

--ioengine=libaio --bs=4k --iodepth=1 --numjobs=1

--runtime=60 --group_reporting --name=temp.out

FIO meldet zwei Latenztypen: Übermittlung und Fertigstellung. Die

Übermittlungslatenz (submission latency, slat) misst die Latenz von der

Anwendung zum Kernel. Die Fertigstellungslatenz (completion latency, clat) misst die durchgängige Kernel-Latenz. Das branchenweit anerkannte

Verfahren muss

clat percentiles

im 99. Bereich lauten.

In diesen Beispiel beträgt die NVMe-oF-Latenz auf dem Initiatorgerät 30 μsec.

3.

Führen Sie das FIO-Dienstprogramm aus, um die Latenz des lokalen

NVMe-Geräts auf dem Zielserver zu messen. Geben Sie den folgenden

Befehl aus:

#

fio --filename=/dev/nvme0n1 --direct=1 --time_based

--rw=randread --refill_buffers --norandommap --randrepeat=0

--ioengine=libaio --bs=4k --iodepth=1 --numjobs=1

--runtime=60 --group_reporting --name=temp.out

In diesem Beispiel beträgt die NVMe-Gerätelatenz 8 usec. Die Gesamtlatenz, die sich aus der Verwendung von NVMe-oF ergibt, ist die Differenz zwischen der NVMe-oF-Latenz des Initiatorgeräts (30 usec) und der NVMe-oF-Latenz des Zielgeräts (8 usec), anders ausgedrückt 22 usec.

4.

Führen Sie das FIO-Dienstprogramm aus, um die Bandbreite des lokalen

NVMe-Geräts auf dem Zielserver zu messen. Geben Sie den folgenden

Befehl aus: fio --verify=crc32 --do_verify=1 --bs=8k --numjobs=1

--iodepth=32 --loops=1 --ioengine=libaio --direct=1

--invalidate=1 --fsync_on_close=1 --randrepeat=1

--norandommap --time_based --runtime=60

--filename=/dev/nvme0n1 --name=Write-BW-to-NVMe-Device

--rw=randwrite wobei

--rw

für Nur-Lesevorgänge randread

lauten kann, randwrite

für

Nur-Schreibvorgänge und randrw

für Lese- und Schreibvorgänge.

223 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Optimieren der Leistung

Optimieren der Leistung

So optimieren Sie die Leistung auf dem Initiator- und dem Zielserver:

1.

Konfigurieren Sie die folgenden System-BIOS-Einstellungen:

 Power Profiles (Stromversorgungsprofile) = Max Performance

(Maximale Leistung) oder äquivalent

 ALL C-States (ALLE C-Zustände) = disabled (deaktiviert)

 Hyperthreading = disabled (deaktiviert)

2.

Konfigurieren Sie die Linux-Kernel-Parameter durch das Bearbeiten der

Datei grub

(

/etc/default/grub

). a.

Fügen Sie Parameter an das Ende der Zeile

GRUB_CMDLINE_LINUX hinzu:

GRUB_CMDLINE_LINUX="

nosoftlockup intel_idle.max_cstate=0 processor.max_cstate=1 mce=ignore_ce idle=poll

" b.

Speichern Sie die grup-Datei.

c.

Stellen Sie die grub

-Datei wieder her. Um die grub

-Datei für einen

Legacy-BIOS-Boot-Vorgang wiederherzustellen, führen Sie den folgenden Befehl aus:

#

grub2-mkconfig -o /boot/grub2/grub.cfg

(Legacy-BIOS-Boot-Vorgang)

Um die grub

-Datei für einen EFI-Boot-Vorgang wiederherzustellen, führen Sie den folgenden Befehl aus:

#

grub2-mkconfig -o /boot/efi/EFI/

<os>

/grub.cfg

(EFI-Boot-Vorgang)) d.

Starten Sie den Server neu, um die Änderungen anzuwenden.

3.

Legen Sie die IRQ-Affinität für alle Adapter der 41

xxx

-Serie fest. Die multi_rss-affin.sh

-Datei ist eine Script-Datei, die unter

„.IRQ-Affinität

(multi_rss-affin.sh)“ auf Seite 225 aufgeführt ist.

#

systemctl stop irqbalance

#

./multi_rss-affin.sh eth1

ANMERKUNG

Eine andere Version dieses Scripts, qedr_affin.sh

, ist im

41

xxx

-Linux-Quellcode-Paket im Verzeichnis

\add-ons\performance\roce

enthalten. Eine Erläuterung der

IRQ-Affinitätseinstellungen finden Sie in der Datei multiple_irqs.txt

in diesem Verzeichnis.

224 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Optimieren der Leistung

4.

Legen Sie das CPU-Intervall fest. Die cpufreq.sh

-Datei ist eine Script-Datei, die unter

„CPU-Intervall (cpufreq.sh)“ auf Seite 226 aufgeführt ist.

#

./cpufreq.sh

In den folgenden Abschnitten werden die Scripte aufgeführt, die in Schritt 3

und

4

verwendet werden.

.IRQ-Affinität (multi_rss-affin.sh)

Das folgende Script legt die IRQ-Affinität fest.

#!/bin/bash

#RSS affinity setup script

#input: the device name (ethX)

#OFFSET=0 0/1 0/1/2 0/1/2/3

#FACTOR=1 2 3 4

OFFSET=0

FACTOR=1

LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2'

MAXCPUID='echo 2 $LASTCPU ^ p | dc'

OFFSET='echo 2 $OFFSET ^ p | dc'

FACTOR='echo 2 $FACTOR ^ p | dc'

CPUID=1 for eth in $*; do

NUM='grep $eth /proc/interrupts | wc -l'

NUM_FP=$((${NUM}))

INT='grep -m 1 $eth /proc/interrupts | cut -d ":" -f 1' echo "$eth: ${NUM} (${NUM_FP} fast path) starting irq ${INT}"

CPUID=$((CPUID*OFFSET)) for ((A=1; A<=${NUM_FP}; A=${A}+1)); do

INT='grep -m $A $eth /proc/interrupts | tail -1 | cut -d ":" -f 1'

SMP='echo $CPUID 16 o p | dc' echo ${INT} smp affinity set to ${SMP} echo $((${SMP})) > /proc/irq/$((${INT}))/smp_affinity

CPUID=$((CPUID*FACTOR)) if [ ${CPUID} -gt ${MAXCPUID} ]; then

CPUID=1

CPUID=$((CPUID*OFFSET))

225 AH0054602-01 F

12–NVMe-oF-Konfiguration mit RDMA

Optimieren der Leistung fi done done

CPU-Intervall (cpufreq.sh)

Mit dem folgenden Script wird das CPU-Intervall festgelegt.

#Usage "./nameofscript.sh" grep -E '^model name|^cpu MHz' /proc/cpuinfo cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f

$CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor

So konfigurieren Sie die Netzwerk- oder Speichereinstellungen:

sysctl -w net.ipv4.tcp_mem="16777216 16777216 16777216" sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216" sysctl -w net.ipv4.tcp_rmem="4096 87380 16777216" sysctl -w net.core.wmem_max=16777216 sysctl -w net.core.rmem_max=16777216 sysctl -w net.core.wmem_default=16777216 sysctl -w net.core.rmem_default=16777216 sysctl -w net.core.optmem_max=16777216 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_window_scaling=0 sysctl -w net.ipv4.tcp_adv_win_scale=1

ANMERKUNG

Die folgenden Befehle gelten nur für den Initiatorserver.

#

echo noop > /sys/block/nvme0n1/queue/scheduler

#

echo 0 > /sys/block/nvme0n1/queue/add_random

#

echo 2 > /sys/block/nvme0n1/queue/nomerges

226 AH0054602-01 F

13

Windows Server 2016

Dieser Abschnitt enthält die folgenden Informationen zu Windows Server 2016:

Konfigurieren von RoCE-Schnittstellen mit Hyper-V

„RoCE über Switch – Eingebettetes Teaming“ auf Seite 233

„Konfigurieren von QoS für RoCE“ auf Seite 235

„Konfigurieren von VMMQ“ auf Seite 243

„Konfigurieren von VXLAN“ auf Seite 250

„Konfigurieren der Funktion „Direkte Speicherplätze““ auf Seite 252

„Implementieren und Verwalten eines Nano-Servers“ auf Seite 259

Konfigurieren von RoCE-Schnittstellen mit Hyper-V

In Windows Server 2016 mit Hyper-V mit Network Direct Kernel Provider Interface

(NDKPI) Mode-2 unterstützen virtuelle Host-Netzwerkadapter (virtuelle Host-NICs)

RDMA.

ANMERKUNG

DCBX ist für RoCE über Hyper-V erforderlich. Führen Sie einen der folgenden Schritte für die Konfiguration von DCBX durch:

 Konfiguration über HII (siehe

„Vorbereiten des Adapters“ auf Seite 71

).

 Konfiguration über QoS (siehe

„Konfigurieren von QoS für RoCE“ auf

Seite 235

).

Zu den in diesem Abschnitt beschriebenen RoCE-Konfigurationsabläufen gehören:

Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen RDMA-NIC

Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC

Überprüfen, ob RoCE aktiviert ist

Hinzufügen von virtuellen Host-NICs (virtuelle Ports)

Zuordnen des SMB-Laufwerks und Ausführen von RoCE-Datenverkehr

227 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von RoCE-Schnittstellen mit Hyper-V

Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen RDMA-NIC

Führen Sie die in diesem Abschnitt beschriebenen Schritte aus, um einen virtuellen

Hyper-V-Switch zu erstellen und RDMA in der VNIC zu aktivieren.

So erstellen Sie einen virtuellen Hyper-V-Switch mit einer virtuellen

RDMA-NIC:

1.

Starten Sie Hyper-V Manager.

2.

Klicken Sie auf

Virtual Switch Manager

(Manager für virtuellen Switch)

(siehe

Abbildung 13-1 ).

Abbildung 13-1. Aktivieren von RDMA auf der virtuellen Host-NIC

3.

Erstellen Sie einen virtuellen Switch.

4.

Aktivieren Sie das Kontrollkästchen

Allow management operating system to share this network adapter

(Verwaltungsbetriebssystem die Freigabe dieses Netzwerkadapters genehmigen).

In Windows Server 2016 wurde ein neuer Parameter – Network Direct (RDMA) – zur virtuellen Host-NIC hinzugefügt.

228 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von RoCE-Schnittstellen mit Hyper-V

So aktivieren Sie RDMA auf einer virtuellen Host-NIC:

1.

Öffnen Sie das Fenster „Hyper-V Virtual Ethernet Adapter Properties“

(Eigenschaften für den virtuellen Hyper-V-Ethernet-Adapter).

2.

Klicken Sie auf die Registerkarte

Advanced

(Erweitert).

3.

Führen Sie auf der Seite „Advanced“ (Erweitert) (

Abbildung 13-2

) die folgenden Schritte aus: a.

Wählen Sie unter

Property

(Eigenschaft) die Option

Network Direct

(RDMA)

aus.

b.

Wählen Sie unter

Value

(Wert) die Option

Enabled

(Aktiviert) aus.

c.

Klicken Sie auf

OK

.

Abbildung 13-2. Eigenschaften für den virtuellen Hyper-V-Ethernet-Adapter

4.

Führen Sie zum Aktivieren von RDMA den folgenden Windows

PowerShell-Befehl aus:

PS C:\Users\Administrator>

Enable-NetAdapterRdma "vEthernet

(New Virtual Switch)"

PS C:\Users\Administrator>

229 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von RoCE-Schnittstellen mit Hyper-V

Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC

So fügen Sie eine VLAN-ID zu einer virtuellen Host-NIC hinzu:

1.

Um den Namen der virtuellen Host-NIC zu ermitteln, führen Sie den folgenden

Windows PowerShell-Befehl aus:

PS C:\Users\Administrator>

Get-VMNetworkAdapter -ManagementOS

Abbildung 13-3

zeigt die Befehlsausgabe.

Abbildung 13-3. Windows PowerShell-Befehl: Get-VMNetworkAdapter

2.

Um die VLAN-ID auf der virtuellen Host-NIC festzulegen, führen Sie den folgenden Windows PowerShell-Befehl aus:

PS C:\Users\Administrator>

Set-VMNetworkAdaptervlan

-VMNetworkAdapterName "New Virtual Switch" -VlanId 5 -Access

-Management05

ANMERKUNG

Beachten Sie den folgenden Hinweis zum Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC:

 Eine VLAN-ID muss einer virtuellen Host-NIC zugewiesen werden.

Dieselbe VLAN-ID muss allen Schnittstellen und dem Switch zugewiesen werden.

 Stellen Sie sicher, dass Sie die VLAN-ID keiner physischen

Schnittstelle zuweisen, wenn Sie eine virtuelle Host-NIC für RoCE verwenden.

 Wenn Sie mehr als eine virtuelle Host-NIC erstellen, können Sie jeder virtuellen Host-NIC VLAN eine andere VLAN zuweisen.

Überprüfen, ob RoCE aktiviert ist

So überprüfen Sie, ob RoCE aktiviert ist:

 Führen Sie den folgenden Windows PowerShell-Befehl aus:

Get-NetAdapterRdma

In der Befehlsausgabe werden die für RDMA unterstützten Adapter, wie in

Abbildung 13-4

dargestellt, aufgelistet.

230 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von RoCE-Schnittstellen mit Hyper-V

Abbildung 13-4. Windows PowerShell-Befehl: Get-NetAdapterRdma

Hinzufügen von virtuellen Host-NICs (virtuelle Ports)

So fügen Sie virtuelle Host-NICs hinzu:

1.

Um eine virtuelle Host-NIC hinzuzufügen, führen Sie den folgenden Befehl aus:

Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name

SMB - ManagementOS

2.

Aktivieren Sie RDMA auf den virtuellen Host-NICs wie unter „So aktivieren

Sie RDMA auf einer virtuellen Host-NIC:“ auf Seite 229 dargestellt.

3.

Um eine VLAN-ID einem virtuellen Port zuzuweisen, führen Sie den folgenden Befehl aus:

Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5

-Access -ManagementOS

Zuordnen des SMB-Laufwerks und Ausführen von

RoCE-Datenverkehr

So ordnen Sie das SMB-Laufwerk zu und führen Sie den

RoCE-Datenverkehr aus:

1.

Starten Sie die Leistungsüberwachung (Perfmon).

2.

Füllen Sie das Dialogfeld „Add Counters“ (Zähler hinzufügen)

(

Abbildung 13-5 ) wie folgt aus:

a.

Wählen unter

Available counters

(Verfügbare Zähler) die Option

RDMA Activity

(RDMA-Aktivität) aus.

b.

Wählen Sie unter

Instances of selected object

(Instanzen des ausgewählten Objekts) den Adapter aus.

c.

Klicken Sie auf

Add

(Hinzufügen).

231 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von RoCE-Schnittstellen mit Hyper-V

Abbildung 13-5. Zähler hinzufügen – Dialogfeld

Wenn der RoCE-Datenverkehr ausgeführt wird, werden Zähler gemäß dem

Beispiel in Abbildung 13-6

angezeigt.

Abbildung 13-6. Leistungsüberwachung zeigt den RoCE-Datenverkehr

232 AH0054602-01 F

13–Windows Server 2016

RoCE über Switch – Eingebettetes Teaming

RoCE über Switch – Eingebettetes Teaming

Switch Embedded Teaming (SET) ist die alternative NIC-Teaming-Solution von

Microsoft, die Sie in Umgebungen mit Hyper-V und dem Software-Defined

Networking (SDN)-Stapel in Windows Server 2016 Technical Preview verwenden können. SET integriert die begrenzte NIC-Teaming-Funktionalität in den virtuellen

Hyper-V-Switch.

Verwenden Sie SET, um einen bis zu acht physische Ethernet-Netzwerkadapter in einen oder mehrere softwarebasierte virtuelle Netzwerkadapter zu gruppieren.

Diese Adapter bieten eine hohe Leistung und Fehlertoleranz beim Ausfall eines

Netzwerkadapters. Um in ein Team integriert zu werden, müssen alle

SET-Mitgliedsnetzwerkadapter auf demselben physischen Hyper-V-Host installiert werden.

In diesem Abschnitt werden die folgenden Verfahren für „RoCE über SET“ behandelt:

Erstellen eines virtuellen Hyper-V-Switches mit SET und virtuellen

RDMA-NICs

Aktivieren von RDMA auf SET

Zuweisen einer VLAN-ID auf SET

Ausführen von RDMA-Datenverkehr auf SET

Erstellen eines virtuellen Hyper-V-Switches mit SET und virtuellen RDMA-NICs

So erstellen Sie einen virtuellen Hyper-V-Switch mit SET und virtuellen

RDMA-NICs:

 Führen Sie zum Erstellen von SET den folgenden Windows

PowerShell-Befehl aus:

PS C:\Users\Administrator>

New-VMSwitch -Name SET

-NetAdapterName "Ethernet 2","Ethernet 3"

-EnableEmbeddedTeaming $true

Abbildung 13-7

zeigt die Befehlsausgabe.

Abbildung 13-7. Windows PowerShell-Befehl: New-VMSwitch

233 AH0054602-01 F

13–Windows Server 2016

RoCE über Switch – Eingebettetes Teaming

Aktivieren von RDMA auf SET

So aktivieren Sie RDMA auf SET:

1.

Führen Sie zum Anzeigen von SET auf dem Adapter den folgenden

Windows PowerShell-Befehl aus:

PS C:\Users\Administrator>

Get-NetAdapter "vEthernet (SET)"

Abbildung 13-8

zeigt die Befehlsausgabe.

Abbildung 13-8. Windows PowerShell-Befehl: Get-NetAdapter

2.

Führen Sie zum Aktivieren von RDMA auf SET den folgenden Windows

PowerShell-Befehl aus:

PS C:\Users\Administrator>

Enable-NetAdapterRdma "vEthernet

(SET)"

Zuweisen einer VLAN-ID auf SET

So weisen Sie eine VLAN-ID auf SET zu:

 Um eine VLAN-ID auf SET zuzuweisen, führen Sie den folgenden Windows

PowerShell-Befehl aus:

PS C:\Users\Administrator>

Set-VMNetworkAdapterVlan

-VMNetworkAdapterName "SET" -VlanId 5 -Access -ManagementOS

ANMERKUNG

Beachten Sie den folgenden Hinweis beim Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC:

 Stellen Sie sicher, dass Sie die VLAN-ID keiner physischen Schnittstelle zuweisen, wenn Sie eine virtuelle Host-NIC für RoCE verwenden.

 Wenn Sie mehr als eine virtuelle Host-NIC erstellen, können Sie jeder virtuellen Host-NIC VLAN eine andere VLAN zuweisen.

Ausführen von RDMA-Datenverkehr auf SET

Weitere Informationen zum Ausführen von RDMA-Datenverkehr auf SET finden

Sie unter: https://technet.microsoft.com/en-us/library/mt403349.aspx

234 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von QoS für RoCE

Konfigurieren von QoS für RoCE

Sie können aus den folgenden zwei Verfahren für die Konfiguration bei der

Servicequalität (Quality of Service, QoS) auswählen:

Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter

Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter

Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter

Die gesamte Konfiguration muss auf allen verwendeten Systemen abgeschlossen sein, bevor QoS durch das Deaktivieren von DCBX auf dem Adapter konfiguriert werden kann. Prioritätsbasierte Flusskontrolle (Priority-based Flow Control, PFC), verbesserte Übertragungsdienstleistungen (Enhanced Transition Services, ETS) und die Klassenkonfiguration für den Datenverkehr müssen auf demselben

Switch und Server vorhanden sein.

So konfigurieren Sie QoS durch Deaktivieren von DCBX:

1.

Deaktivieren Sie DCBX auf dem Adapter.

2.

Setzen Sie den Wert für

RoCE Priority

(RoCE-Priorität) unter Verwendung von HII auf

0

.

3.

Führen Sie zum Installieren der DCB-Rolle in den Host den folgenden

Windows PowerShell-Befehl aus:

PS C:\Users\Administrators>

Install-WindowsFeature

Data-Center-Bridging

4.

Um den Modus

DCBX Willing

(DCBX-Bereitschaft) auf

False

(Falsch) zu setzen, führen Sie den folgenden Windows PowerShell-Befehl aus:

PS C:\Users\Administrators>

set-NetQosDcbxSetting -Willing 0

5.

Aktivieren Sie QoS wie folgt auf dem Miniport: a.

Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte

Advanced

(Erweitert).

b.

Wählen Sie auf der Seite „Advanced properties“ (Erweiterte

Eigenschaften) des Adapters ( Abbildung 13-9

) unter

Property

(Eigenschaft) die Option

Quality of Service

(Servicequalität) aus und setzen Sie den Wert auf

Enabled

(Aktiviert).

c.

Klicken Sie auf

OK

.

235 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von QoS für RoCE

Abbildung 13-9. Erweiterte Eigenschaften: QoS aktivieren

6.

Weisen Sie der Schnittstelle wie folgt die VLAN-ID zu: a.

Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte

Advanced

(Erweitert).

b.

Wählen Sie auf der Seite „Advanced properties“ (Erweiterte

Eigenschaften) des Adapters ( Abbildung 13-10

) unter

Property

(Eigenschaft) die Option

VLAN ID

(VLAN-ID) aus und legen Sie den

Wert fest.

c.

Klicken Sie auf

OK

.

ANMERKUNG

Der vorherige Schritt ist für die prioritätsbasierte Flusskontrolle (PFC) erforderlich.

236 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von QoS für RoCE

Abbildung 13-10. Erweiterte Eigenschaften: Einstellen der VLAN-ID

7.

Um die prioritätsbasierte Flusskontrolle für RoCE auf einer bestimmten

Priorität zu aktivieren, führen Sie den folgenden Befehl aus:

PS C:\Users\Administrators>

Enable-NetQoSFlowControl

-Priority 4

ANMERKUNG

Weisen Sie bei der Konfiguration von RoCE über Hyper-V der physischen Schnittstelle keine VLAN-ID zu.

8.

Um die prioritätsbasierte Flusskontrolle auf einer anderen Priorität zu deaktivieren, führen Sie den folgenden Befehl aus:

PS C:\Users\Administrator>

Disable-NetQosFlowControl 0,1,2,3,5,6,7

PS C:\Users\Administrator>

Get-NetQosFlowControl

Priority Enabled PolicySet IfIndex IfAlias

-------- ------- --------- ------- -------

0 False Global

1 False Global

2 False Global

3 False Global

237 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von QoS für RoCE

4 True Global

5 False Global

6 False Global

7 False Global

9.

Um QoS zu konfigurieren und jedem Datenverkehrstyp die relevante Priorität zuzuweisen, führen Sie die folgenden Befehle aus (wobei „Priority 4“

(Priorität 4) für RoCE und „Priority 0“ (Priorität 0) für TCP gekennzeichnet ist):

PS C:\Users\Administrators>

New-NetQosPolicy "SMB"

-NetDirectPortMatchCondition 445 -PriorityValue8021Action 4 -PolicyStore

ActiveStore

PS C:\Users\Administrators>

New-NetQosPolicy "TCP" -IPProtocolMatchCondition

TCP -PriorityValue8021Action 0 -Policystore ActiveStore

PS C:\Users\Administrator>

Get-NetQosPolicy -PolicyStore activestore

Name : tcp

Owner : PowerShell / WMI

NetworkProfile : Alle

Precedence : 127

JobObject :

IPProtocol : TCP

PriorityValue : 0

Name : smb

Owner : PowerShell / WMI

NetworkProfile : Alle

Precedence : 127

JobObject :

NetDirectPort : 445

PriorityValue : 4

10. Um ETS für alle im vorherigen Schritt definierten Datenverkehrsklassen zu konfigurieren, führen Sie die folgenden Befehle aus:

PS C:\Users\Administrators>

New-NetQosTrafficClass -name "RDMA class"

-priority 4 -bandwidthPercentage 50 -Algorithm ETS

PS C:\Users\Administrators>

New-NetQosTrafficClass -name "TCP class" -priority

0 -bandwidthPercentage 30 -Algorithm ETS

PS C:\Users\Administrator>

Get-NetQosTrafficClass

238 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von QoS für RoCE

Name Algorithm Bandwidth(%) Priority PolicySet IfIndex IfAlias

---- --------- ------------ -------- --------- ------- -------

[Default] ETS 20 2-3,5-7 Global

RDMA class ETS 50 4

TCP class ETS 30 0

Global

Global

11.

Um die Servicequalität (QoS) für den Netzwerkadapter in der vorherigen

Konfiguration anzuzeigen, führen Sie den folgenden Windows

PowerShell-Befehl aus:

PS C:\Users\Administrator>

Get-NetAdapterQos

Name : SLOT 4 Port 1

Enabled : True

Capabilities : Hardware Current

-------- -------

MacSecBypass : NotSupported NotSupported

DcbxSupport : None None

NumTCs(Max/ETS/PFC) : 4/4/4 4/4/4

OperationalTrafficClasses : TC TSA Bandwidth Priorities

-- --- --------- ----------

0 ETS 20% 2-3,5-7

1 ETS 50% 4

2 ETS 30% 0

OperationalFlowControl : Priority 4 Enabled

OperationalClassifications : Protocol Port/Type Priority

-------- --------- --------

Default 0

NetDirect 445 4

12. Erstellen Sie ein Start-Script, damit die Einstellungen bei künftigen

Systemneustarts erhalten bleiben.

13. Führen Sie den RDMA-Datenverkehr aus und überprüfen Sie ihn gemäß

„RoCE-Konfiguration“ auf Seite 69 .

Konfigurieren von QoS durch Aktivieren von DCBX auf dem Adapter

Die gesamte Konfiguration muss auf allen verwendeten Systemen abgeschlossen sein. Prioritätsbasierte Flusskontrolle (Priority-based Flow Control, PFC), verbesserte Übertragungsdienstleistungen (Enhanced Transition Services, ETS) und die Klassenkonfiguration für den Datenverkehr müssen auf demselben

Switch und Server vorhanden sein.

239 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von QoS für RoCE

So konfigurieren Sie QoS durch Aktivieren von DCBX:

1.

Aktivieren Sie DCBX (IEEE, CEE oder Dynamic (Dynamisch)).

2.

Setzen Sie den Wert für

RoCE Priority

(RoCE-Priorität) unter Verwendung von HII auf

0

.

3.

Führen Sie zum Installieren der DCB-Rolle in den Host den folgenden

Windows PowerShell-Befehl aus:

PS C:\Users\Administrators>

Install-WindowsFeature

Data-Center-Bridging

ANMERKUNG

Setzen Sie für diese Konfiguration

DCBX Protocol

(DCBX-Protokoll) auf

CEE

.

4.

Um den Modus

DCBX Willing

(DCBX-Bereitschaft) auf

True

(Wahr) zu setzen, führen Sie den folgenden Befehl aus:

PS C:\Users\Administrators>

set-NetQosDcbxSetting -Willing 1

5.

Aktivieren Sie QoS wie folgt auf dem Miniport: a.

Wählen Sie auf der Seite „Advanced properties“ (Erweiterte

Eigenschaften) des Adapters ( Abbildung 13-11

) unter

Property

(Eigenschaft) die Option

Quality of Service

(Servicequalität) aus und setzen Sie den Wert auf

Enabled

(Aktiviert).

b.

Klicken Sie auf

OK

.

240 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von QoS für RoCE

Abbildung 13-11. Erweiterte Eigenschaften: Aktivieren von QoS

6.

Weisen Sie der Schnittstelle (für PFC erforderlich) wie folgt die VLAN-ID zu: a.

Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte

Advanced

(Erweitert).

b.

Wählen Sie auf der Seite „Advanced properties“ (Erweiterte

Eigenschaften) des Adapters ( Abbildung 13-12

) unter

Property

(Eigenschaft) die Option

VLAN ID

(VLAN-ID) aus und legen Sie den

Wert fest.

c.

Klicken Sie auf

OK

.

241 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von QoS für RoCE

Abbildung 13-12. Erweiterte Eigenschaften: Einstellen der VLAN-ID

7.

Um den Switch zu konfigurieren, führen Sie den folgenden Windows

PowerShell-Befehl aus:

PS C:\Users\Administrators>

Get-NetAdapterQoS

Name : Ethernet 5

Enabled : True

Capabilities : Hardware Current

-------- -------

MacSecBypass : NotSupported NotSupported

DcbxSupport : CEE CEE

NumTCs(Max/ETS/PFC) : 4/4/4 4/4/4

OperationalTrafficClasses : TC TSA Bandwidth Priorities

-- --- --------- ----------

0 ETS 5% 0-3,5-7

1 ETS 95% 4

OperationalFlowControl : Priority 4 Enabled

OperationalClassifications : Protocol Port/Type Priority

-------- --------- --------

NetDirect 445 4

242 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VMMQ

RemoteTrafficClasses : TC TSA Bandwidth Priorities

-- --- --------- ----------

0 ETS 5% 0-3,5-7

1 ETS 95% 4

RemoteFlowControl : Priority 4 Enabled

RemoteClassifications : Protocol Port/Type Priority

-------- --------- --------

NetDirect 445 4

ANMERKUNG

Das vorherige Beispiel gilt, wenn der Adapter-Port mit einem Arista

7060X-Switch verbunden ist. In diesem Beispiel ist der Switch-PFC auf Priorität

4 aktiviert. RoCE App TLVs sind definiert. Die beiden Datenverkehrsklassen sind als TC0 und TC1 definiert, hingegen ist TC1 für RoCE definiert. Der Modus

DCBX Protocol

(DCBX-Protokoll) ist auf

CEE

eingestellt. Weitere

Informationen zur Arista-Switch-Konfiguration finden Sie unter „Vorbereiten des Ethernet-Switches“ auf Seite 72

. Wenn sich der Adapter im Modus

Willing

(Bereitschaft) befindet, akzeptiert er die Remote-Konfiguration und zeigt dies als

Operational Parameters

(Betriebsparameter) an.

Konfigurieren von VMMQ

Die Konfigurationsinformationen zur Multiqueue der virtuellen Machine (VMMQ) umfassen:

Aktivieren von VMMQ auf dem Adapter

Festlegen des VMMQ Max QPs-Standard- und Nicht-Standard-Ports

Erstellen eines Switches für eine virtuelle Maschine mit oder ohne SR-IOV

Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine

Abrufen der Funktionen für den Switch der virtuellen Maschine

Erstellen einer VM und Aktivieren von VMMQ auf VM-Netzwerkadaptern in der VM

Virtuelle Standard- und Maximum VMMQ-NIC

Aktivieren und Deaktivieren von VMMQ auf einer Verwaltungs-NIC

Überwachen der Datenverkehrsstatistik

243 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VMMQ

Aktivieren von VMMQ auf dem Adapter

So aktivieren Sie VMMQ auf dem Adapter:

1.

Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte

Advanced

(Erweitert).

2.

Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften)

(

Abbildung 13-13 ) unter

Property

(Eigenschaft) die Option

Virtual Switch

RSS

(RSS für virtuellen Switch) und setzen Sie den Wert auf

Enabled

(Aktiviert).

3.

Klicken Sie auf

OK

.

Abbildung 13-13. Erweiterte Eigenschaften: Aktivieren von RSS auf dem virtuellen Switch

Festlegen des VMMQ Max QPs-Standard- und

Nicht-Standard-Ports

So legen Sie den VMMQ Max QPs-Standard- und Nicht-Standard-Port fest:

1.

Öffnen Sie das Fenster „Miniport“ (Miniport) und klicken Sie auf die

Registerkarte

Advanced

(Erweitert).

244 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VMMQ

2.

Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften)

(

Abbildung 13-14 ) unter

Property

(Eigenschaft) eine der folgenden

Optionen aus:

VMMQ Max QPs – Standard-VPort

VMMQ Max QPs – Nicht-Standard-VPort

3.

Passen Sie

Wert

für die ausgewählte Eigenschaften ggf. an.

Abbildung 13-14. Erweiterte Eigenschaften: Festlegen von VMMQ

4.

Klicken Sie auf

OK

.

Erstellen eines Switches für eine virtuelle Maschine mit oder ohne SR-IOV

So erstellen Sie einen Switch für eine virtuelle Maschine mit oder ohne

SR-IOV:

1.

Starten Sie Hyper-V Manager.

2.

Wählen Sie

Virtual Switch Manager

(Manager für virtuellen Switch) aus

(siehe

Abbildung 13-15 ).

3.

Geben Sie in das Feld

Name

(Name) einen Namen für den virtuellen

Switch ein.

245 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VMMQ

4.

Unter

Connection type

(Verbindungstyp): a.

Klicken Sie auf

External network

(Externes Netzwerk).

b.

Aktivieren Sie das Kontrollkästchen

Allow management operating system to share this network adapter

(Verwaltungsbetriebssystem die Freigabe dieses Netzwerkadapters genehmigen).

Abbildung 13-15. Manager für virtuellen Switch

5.

Klicken Sie auf

OK

.

246 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VMMQ

Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine

So aktivieren Sie VMMQ auf dem Switch für die virtuelle Maschine:

 Führen Sie den folgenden Windows PowerShell-Befehl aus:

PS C:\Users\Administrators>

Set-VMSwitch -name q1

-defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4

Abrufen der Funktionen für den Switch der virtuellen Maschine

So rufen Sie die Funktionen für den Switch der virtuellen Maschine ab:

 Führen Sie den folgenden Windows PowerShell-Befehl aus:

PS C:\Users\Administrator>

Get-VMSwitch -Name ql | fl

Abbildung 13-16

zeigt ein Beispiel für die Ausgabe.

Abbildung 13-16. Windows PowerShell-Befehl: Get-VMSwitch

247 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VMMQ

Erstellen einer VM und Aktivieren von VMMQ auf

VM-Netzwerkadaptern in der VM

So erstellen Sie eine virtuelle Maschine (VM) und aktivieren VMMQ auf

VM-Netzwerkadaptern in der virtuellen Maschine:

1.

Erstellen Sie eine VM.

2.

Fügen Sie den VM-Netzwerkadapter zur VM hinzu.

3.

Weisen Sie einen virtuellen Switch zum VM-Netzwerkadapter hinzu.

4.

Führen Sie zum Aktivieren von VMMQ auf der VM den folgenden Windows

PowerShell-Befehl aus:

PS C:\Users\Administrators>

set-vmnetworkadapter -vmname vm1

-VMNetworkAdapterName "network adapter" -vmmqenabled $true

-vmmqqueuepairs 4

ANMERKUNG

Bei einem SR-IOV-fähigen virtuellen Switch: Wenn der VM-Switch und die Hardware-Beschleunigung für SR-IOV aktiviert sind, müssen Sie für die Verwendung von VMMQ 10 virtuelle Maschinen mit jeweils

8 virtuellen NICs erstellen. Diese Anforderung besteht, da SR-IOV

Vorrang vor VMMQ hat.

Eine Beispielausgabe mit 64 virtuellen Funktionen und 16 VMMQs finden

Sie hier:

PS C:\Users\Administrator>

get-netadaptervport

Name ID MacAddress VID ProcMask FID State ITR QPairs

---- -- ---------- --- -------- --- ----- --- ------

Ethernet 3 0 00-15-5D-36-0A-FB 0:0 PF Activated Unknown 4

Ethernet 3 1 00-0E-1E-C4-C0-A4 0:8 PF Activated Adaptive 4

Ethernet 3 2 0:0 0 Activated Unknown 1

Ethernet 3 3 0:0 1 Activated Unknown 1

Ethernet 3 4 0:0 2 Activated Unknown 1

Ethernet 3 5 0:0 3 Activated Unknown 1

Ethernet 3 6 0:0 4 Activated Unknown 1

Ethernet 3 7 0:0 5 Activated Unknown 1

Ethernet 3 8 0:0 6 Activated Unknown 1

Ethernet 3 9 0:0 7 Activated Unknown 1

.

.

Ethernet 3 10 0:0 8 Activated Unknown 1

Ethernet 3 11 0:0 9 Activated Unknown 1

.

Ethernet 3 64 0:0 62 Activated Unknown 1

Ethernet 3 65 0:0 63 Activated Unknown 1

Ethernet 3 66 00-15-5D-36-0A-04 0:16 PF Activated Adaptive 4

248 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VMMQ

Ethernet 3 67 00-15-5D-36-0A-05 1:0 PF Activated Adaptive 4

Ethernet 3 68 00-15-5D-36-0A-06 0:0 PF Activated Adaptive 4

Name ID MacAddress VID ProcMask FID State ITR QPairs

---- -- ---------- --- -------- --- ----- --- ------

Ethernet 3 69 00-15-5D-36-0A-07 0:8 PF Activated Adaptive 4

Ethernet 3 70 00-15-5D-36-0A-08 0:16 PF Activated Adaptive 4

Ethernet 3 71 00-15-5D-36-0A-09 1:0 PF Activated Adaptive 4

Ethernet 3 72 00-15-5D-36-0A-0A 0:0 PF Activated Adaptive 4

Ethernet 3 73 00-15-5D-36-0A-0B 0:8 PF Activated Adaptive 4

Ethernet 3 74 00-15-5D-36-0A-F4 0:16 PF Activated Adaptive 4

Ethernet 3 75 00-15-5D-36-0A-F5 1:0 PF Activated Adaptive 4

Ethernet 3 76 00-15-5D-36-0A-F6 0:0 PF Activated Adaptive 4

Ethernet 3 77 00-15-5D-36-0A-F7 0:8 PF Activated Adaptive 4

Ethernet 3 78 00-15-5D-36-0A-F8 0:16 PF Activated Adaptive 4

Ethernet 3 79 00-15-5D-36-0A-F9 1:0 PF Activated Adaptive 4

Ethernet 3 80 00-15-5D-36-0A-FA 0:0 PF Activated Adaptive 4

PS C:\Users\Administrator>

get-netadaptervmq

Name InterfaceDescription

---- --------------------

Ethernet 4 QLogic FastLinQ 41

xxx

False 0:0

Queues

16 1

Virtuelle Standard- und Maximum VMMQ-NIC

Gemäß der aktuellen Implementierung sind maximal 4 VMMQs pro virtueller NIC verfügbar, also bis zu 16 virtuelle NICs.

Vier Standardwarteschlangen sind gemäß der vorherigen Festlegung über die

Windows PowerShell-Befehle verfügbar. Die maximale Standardwarteschlange kann derzeit auf 8 eingestellt werden. Um die maximale Standardwarteschlange zu überprüfen, verwenden Sie die VMswitch-Funktion.

Aktivieren und Deaktivieren von VMMQ auf einer

Verwaltungs-NIC

So aktivieren und deaktivieren Sie VMMQ auf einer Verwaltungs-NIC:

 Um VMMQ auf einer Verwaltungs-NIC zu aktivieren, führen Sie den folgenden Befehl aus:

PS C:\Users\Administrator>

Set-VMNetworkAdapter –ManagementOS

–vmmqEnabled $true

Die MOS-VNIC hat vier VMMQs.

 Um VMMQ auf einer Verwaltungs-NIC zu deaktivieren, führen Sie den folgenden Befehl aus:

249 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VXLAN

PS C:\Users\Administrator>

Set-VMNetworkAdapter –ManagementOS

–vmmqEnabled $false

Eine VMMQ ist auch für den kürzesten, ersten offenen Multicast-Pfad

(MOSPF) verfügbar.

Überwachen der Datenverkehrsstatistik

Um den Datenverkehr der virtuellen Funktion auf einer virtuellen Maschine zu

überwachen, führen Sie den folgenden Windows PowerShell-Befehl aus:

PS C:\Users\Administrator>

Use get-netadapterstatistics | fl

Konfigurieren von VXLAN

Die folgenden VXLAN-Konfigurationsdaten sind verfügbar:

Aktivieren von VXLAN-Offload auf dem Adapter

Implementieren eines Software Defined Network

Aktivieren von VXLAN-Offload auf dem Adapter

So aktivieren Sie VXLAN-Offload auf dem Adapter:

1.

Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte

Advanced

(Erweitert).

2.

Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften)

(

Abbildung 13-17 ) unter

Property

(Eigenschaft) die Option

VXLAN

Encapsulated Task Offload

(Gekapselte VXLAN-Aufgabe – Offload) aus:

250 AH0054602-01 F

13–Windows Server 2016

Konfigurieren von VXLAN

Abbildung 13-17. Erweiterte Eigenschaften: Aktivieren von VXLAN

3.

Setzen Sie das Feld

Value

(Wert) auf

Enabled

(Aktiviert).

4.

Klicken Sie auf

OK

.

Implementieren eines Software Defined Network

Um die Funktion der Offload-VXLAN-Verkapselung auf virtuellen Maschinen vollständig zu nutzen, müssen Sie einen Stapel für ein Software Defined Network

(SDN) implementieren, das einen Microsoft-Netzwerk-Controller verwendet.

Weitere Details zu Software Defined Networking finden Sie unter dem folgenden

Microsoft TechNet-Link: https://technet.microsoft.com/en-us/windows-server-docs/networking/sdn/ software-defined-networking--sdn-

251 AH0054602-01 F

13–Windows Server 2016

Konfigurieren der Funktion „Direkte Speicherplätze“

Konfigurieren der Funktion „Direkte

Speicherplätze“

Mit Windows Server 2016 wird die Funktion „Direkte Speicherplätze“ eingeführt.

Mit dieser Funktion können Sie hoch verfügbare und skalierbare Speichersysteme mit lokalem Speicher aufbauen.

Weitere Informationen finden Sie unter dem folgenden Microsoft TechnNet-Link: https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces

/storage-spaces-direct-windows-server-2016

Konfigurieren der Hardware

Abbildung 13-18 zeigt ein Beispiel für die Hardware-Konfiguration.

Abbildung 13-18. Beispiel für die Hardware-Konfiguration

ANMERKUNG

Bei den in diesem Beispiel verwendeten Festplatten handelt es sich um

4 × 400G NVMe ™ - und 12 × 200G SSD-Festplatten.

252 AH0054602-01 F

13–Windows Server 2016

Konfigurieren der Funktion „Direkte Speicherplätze“

Implementieren eines Hyper-Konvergenzsystems

In diesem Abschnitt finden Sie Anweisungen für die Installation und Konfiguration der Komponenten eines Hyper-Konvergenzsystems über Windows Server 2016.

Die eigentliche Bereitstellung eines Hyper-Konvergenzsystems kann in die folgenden drei übergeordneten Phasen unterteilt werden:

Implementieren des Betriebssystems

Konfigurieren des Netzwerks

Konfigurieren der Funktion „Direkte Speicherplätze“

Implementieren des Betriebssystems

So stellen Sie Betriebssysteme bereit:

1.

Installieren Sie das Betriebssystem.

2.

Installieren Sie die Windows-Serverrollen (Hyper-V).

3.

Installieren Sie die folgenden Funktionen:

 Failover

 Cluster (Datengruppe)

 Data Center Bridging (DCB):

4.

Verbinden Sie die Knoten mit der Domäne und fügen Sie

Domänenkonten hinzu.

Konfigurieren des Netzwerks

Um die Funktion „Direkte Speicherplätze“ bereitzustellen, muss der Hyper-V-Switch mit RDMA-aktivierten virtuellen Host-NICs bereitgestellt werden.

ANMERKUNG

Beim folgenden Verfahren wird angekommen, dass es vier

RDMA-NIC-Ports gibt.

So konfigurieren Sie das Netzwerk auf den einzelnen Servern:

1.

Konfigurieren Sie den physischen Netzwerk-Switch wie folgt: a.

Schließen Sie alle Adapter-NICs an den Switch-Port an.

ANMERKUNG

Wenn Ihr Testadapter mehr als einen NIC-Port aufweist, müssen

Sie beide Ports an denselben Switch anschließen.

253 AH0054602-01 F

13–Windows Server 2016

Konfigurieren der Funktion „Direkte Speicherplätze“ b.

Aktivieren Sie den Switch-Port und stellen Sie sicher, dass der

Switch-Port den Switch-unabhängigen Teaming-Modus unterstützt und

Teil mehrerer VLAN-Netzwerk ist.

Beispiel für eine Dell Switch-Konfiguration: no ip address mtu 9416 portmode hybrid switchport dcb-map roce_S2D protocol lldp dcbx version cee no shutdown

2.

Aktivieren Sie

Network Quality of Service

(Servicequalität des Netzwerks).

ANMERKUNG

Die Funktion „Network Quality of Service“ (Servicequalität des

Netzwerks) wird verwendet, um sicherzustellen, dass das Software

Defined Storage-System über ausreichend Bandbreite verfügt, um zwischen den Knoten zu kommunizieren und damit Resilienz und

Leistung sicherzustellen. Wenn Sie die Servicequalität (QoS) auf dem

Adapter konfigurieren möchten, finden Sie weitere Informationen unter

„Konfigurieren von QoS für RoCE“ auf Seite 235 .

3.

Erstellen Sie wie folgt einen virtuellen Hyper-V-Switch mit virtuellen SET- und RDMA-NICs: a.

Um Netzwerkadapter zu identifizieren, führen Sie den folgenden

Befehl aus:

Get-NetAdapter | FT

Name,InterfaceDescription,Status,LinkSpeed

b.

Um den virtuellen Switch zu erstellen, der mit allen physischen

Netzwerkadaptern verknüpft ist, und dann die in den Switch eingebettete Teaming-Funktion zu aktivieren, führen Sie den folgenden Befehl aus:

New-VMSwitch -Name SETswitch -NetAdapterName "<Port

1>","<Port 2>","<Port 3>","<Port 4>" –

EnableEmbeddedTeaming $true

c.

Um virtuelle Host-NICs zum virtuellen Switch hinzuzufügen, führen Sie die folgenden Befehle aus:

254 AH0054602-01 F

13–Windows Server 2016

Konfigurieren der Funktion „Direkte Speicherplätze“

Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_1 – managementOS

Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_2 – managementOS

ANMERKUNG

Die vorherigen Befehle konfigurieren die virtuelle NIC aus dem virtuellen Switch, den Sie soeben für das zu verwendende

Verwaltungsbetriebssystem konfiguriert haben.

d.

Um die virtuelle Host-NIC für die Verwendung eines VLAN zu konfiguieren, führen Sie die folgenden Befehle aus:

Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_1"

-VlanId 5 -Access -ManagementOS

Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_2"

-VlanId 5 -Access -ManagementOS

ANMERKUNG

Die folgenden Befehle können auf demselben oder abweichenden VLANs vorhanden sein.

e.

Um sicherzustellen, dass die VLAN-ID festgelegt wurde, führen Sie den folgenden Befehl aus:

Get-VMNetworkAdapterVlan -ManagementOS

f.

Um die einzelnen virtuellen Host-NIC-Adapter zu deaktivieren und zu aktivieren, sodass das VLAN aktiv ist, führen Sie den folgenden

Befehl aus:

Disable-NetAdapter "vEthernet (SMB_1)"

Enable-NetAdapter "vEthernet (SMB_1)"

Disable-NetAdapter "vEthernet (SMB_2)"

Enable-NetAdapter "vEthernet (SMB_2)"

g.

Um RDMA auf den virtuellen Host-NIC-Adaptern zu aktivieren, führen

Sie den folgenden Befehl aus:

Enable-NetAdapterRdma "SMB1","SMB2"

h.

Um die RDMA-Funktionen sicherzustellen, führen Sie den folgenden

Befehl aus:

Get-SmbClientNetworkInterface | where RdmaCapable -EQ

$true

255 AH0054602-01 F

13–Windows Server 2016

Konfigurieren der Funktion „Direkte Speicherplätze“

Konfigurieren der Funktion „Direkte Speicherplätze“

Die Konfiguration der Funktion „Direkte Speicherplätze“ in Windows Server 2016 umfasst die folgenden Schritte:

Schritt 1. Ausführen eines Clustervalidierungswerkzeugs

Schritt 2. Erstellen eines Clusters

Schritt 3. Konfigurieren eines Clusterzeugen

Schritt 4. Säubern der für die Funktion „Direkte Speicherplätze“ verwendeten Festplatten

Schritt 5. Aktivieren der Funktion „Direkte Speicherplätze“

Schritt 6. Erstellen von virtuellen Festplatten

Schritt 7. Erstellen oder Bereitstellen von virtuellen Maschinen

Schritt 1. Ausführen eines Clustervalidierungswerkzeugs

Führen Sie das Clustervalisierungswerkzeug aus, um sicherzustellen, dass die

Serverknoten korrekt konfiguriert wurden, um auf Basis der Funktion „Direkte

Speicherplätze“ ein Cluster zu erstellen.

Führen Sie den folgenden Windows PowerShell-Befehl aus, um mehrere Server zur Verwendung als Cluster für direkte Speicherplätze zu validieren:

Test-Cluster -Node <MachineName1, MachineName2, MachineName3,

MachineName4> -Include "Storage Spaces Direct", Inventory,

Network, "System Configuration"

Schritt 2. Erstellen eines Clusters

Erstellen Sie ein Cluster mit den vier Knoten (die für die Cluster-Erstellung validiert wurden) in

Schritt 1. Ausführen eines Clustervalidierungswerkzeugs .

Führen Sie zum Erstellen eines Clusters den folgenden Windows

PowerShell-Befehl aus:

New-Cluster -Name <ClusterName> -Node <MachineName1, MachineName2,

MachineName3, MachineName4> -NoStorage

Der Parameter

–NoStorage

wird benötigt. Sollte er nicht enthalten sein, werden die Festplatten automatisch zum Cluster hinzugefügt und Sie müssen sie durch das Aktivieren der Funktion „Direkte Speicherplätze“ entfernen. Ansonsten werden sie nicht in das Speicherpool der Funktion „Direkte Speicherplätze“ eingeschlossen.

Schritt 3. Konfigurieren eines Clusterzeugen

Es wird empfohlen, einen Zeugen für das Cluster zu konfigurieren, sodass dieses

System mit vier Knoten weiterhin funktioniert, wenn zwei Konten ausfallen oder offline sind. Mit diesen Systemen können Sie den Dateifreigabe-Zeugen oder den

Cloud-Zeugen konfigurieren.

256 AH0054602-01 F

13–Windows Server 2016

Konfigurieren der Funktion „Direkte Speicherplätze“

Weitere Informationen finden Sie unter: https://blogs.msdn.microsoft.com/clustering/2014/03/31/configuring-a-file-sharewitness-on-a-scale-out-file-server/

Schritt 4. Säubern der für die Funktion „Direkte Speicherplätze“ verwendeten Festplatten

Die Festplatten, die für die Funktion „Direkte Speicherplätze“ verwendet werden sollen, müssen leer sein und dürfen keine Partitionen oder andere Daten aufweisen. Wenn eine Festplatte Partitionen oder andere Daten enthält, wird sie nicht im System mit den direkten Speicherplätzen berücksichtigt.

Der folgende Windows PowerShell-Befehl kann in eine Windows

PowerShell-Script-Datei (

.PS1

) gesetzt und über das Verwaltungssystem in einer offenen Windows PowerShell (oder Windows PowerShell-ISE)-Konsole mit

Administratorberechtigungen ausgeführt werden.

ANMERKUNG

Das Ausführen dieses Scripts hilft bei der Unterstützung der Festplatten auf den einzelnen Knoten, die für die Funktion „Direkte Speicherplätze“ verwendet werden können, und entfernt alle Daten und Partition von diesen Festplatten.

icm (Get-Cluster -Name HCNanoUSClu3 | Get-ClusterNode)

{

Update-StorageProviderCache

Get-StoragePool |? IsPrimordial -eq $false | Set-StoragePool

-IsReadOnly:$false -ErrorAction SilentlyContinue

Get-StoragePool |? IsPrimordial -eq $false | Get-VirtualDisk |

Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue

Get-StoragePool |? IsPrimordial -eq $false | Remove-StoragePool

-Confirm:$false -ErrorAction SilentlyContinue

Get-PhysicalDisk | Reset-PhysicalDisk -ErrorAction

SilentlyContinue

Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne

$true |? PartitionStyle -ne RAW |% {

$_ | Set-Disk -isoffline:$false

$_ | Set-Disk -isreadonly:$false

$_ | Clear-Disk -RemoveData -RemoveOEM -Confirm:$false

$_ | Set-Disk -isreadonly:$true

$_ | Set-Disk -isoffline:$true

}

257 AH0054602-01 F

13–Windows Server 2016

Konfigurieren der Funktion „Direkte Speicherplätze“

Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne

$true |? PartitionStyle -eq RAW | Group -NoElement -Property

FriendlyName

} | Sort -Property PsComputerName,Count

Schritt 5. Aktivieren der Funktion „Direkte Speicherplätze“

Führen Sie nach der Erstellung des Clusters das cmdlet

Enable-ClusterStorageSpacesDirect

Windows PowerShell aus. Das cmdlet versetzt das Speichersystem in den Modus „Direkte Speicherplätze“ und führt die folgenden Schritte automatisch aus:

 Erstellt ein einzelnes großes Pool mit einem Namen wie

S2D auf Cluster 1

.

 Konfiguriert den Cache für die Funktion „Direkte Speicherplätze“. Wenn mehr als ein Datenträgertyp für die Verwendung der Funktion „Direkte

Speicherplätze“ vorhanden ist, konfiguriert es den effizientesten Typ als

Cache-Geräte (in den meisten Fällen Schreiben und Lesen).

 Erstellt zweit Stufen –

Capacity

(Kapazität) und

Performance

(Leistung) – als Standardstufen. Das cmdlet analysiert die Geräte und konfiguriert jede

Stufe mit dem Mix aus Gerätetypen und Resilienz.

Schritt 6. Erstellen von virtuellen Festplatten

Wenn die Funktion „Direkte Speicherplätze“ aktiviert wurde, erstellt sie ein einzelnes Pool mit allen Festplatten. Außerdem wird das Pool (z. B.

S2D auf

Cluster 1

) mit dem Namen des Clusters benannt, der im Namen angegeben ist.

Der folgende Windows PowerShell-Befehl erstellt eine virtuelle Festplatte mit

Spiegelungs- und Paritätsresilienz im Speicher-Pool:

New-Volume -StoragePoolFriendlyName "S2D*" -FriendlyName

<VirtualDiskName> -FileSystem CSVFS_ReFS -StorageTierfriendlyNames

Capacity,Performance -StorageTierSizes <Size of capacity tier in size units, example: 800GB>, <Size of Performance tier in size units, example: 80GB> -CimSession <ClusterName>

Schritt 7. Erstellen oder Bereitstellen von virtuellen Maschinen

Sie können die virtuellen Maschinen auf den Knoten des

Hyper-Konvergenz-S2D-Clusters bereitstellen. Speichern Sie die Dateien der virtuellen Maschine in den CSV-Namespace des Systems (Beispiel: c:\ClusterStorage\Volume1

). Dieser Vorgang ähnelt geclusterten virtuellen

Maschinen auf Failover-Clustern.

258 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

Implementieren und Verwalten eines

Nano-Servers

Windows Server 2016 bietet den Nano-Server als neue Installationsoption an.

Nano-Server ist ein remote verwaltetes Server-Betriebssystem, das für private

Clouds und Rechenzentren optimiert wurde. Es ähnelt Windows Server im Server

Core-Modus, es ist jedoch deutlich kleiner, verfügt nicht über eine lokale

Anmeldefunktion und unterstützt nur 64-Bit-Anwendungen, -Werkzeuge und

-Agenten. Der Nano-Server verbraucht weniger Festplattenspeicherplatz, er kann schneller eingerichtet werden und erfordert weniger Aktualisierungen und Neustarts als Windows Server. Bei erforderlichen Neustarts erfolgen diese deutlich schneller.

Rollen sowie Merkmale und Funktionen

Tabelle 13-1 zeigt die Rollen sowie die Merkmale und Funktionen, die in dieser

Version von Nano-Server verfügbar sind. Außerdem werden die Windows

PowerShell-Optionen angezeigt, mit denen die Pakete für diese Rollen bzw.

Merkmale und Funktionen installiert werden. Einige Pakete werden direkt mit ihren eigenen Windows PowerShell-Optionen installiert (z. B.

-Compute

). Andere werden als Erweiterungen in die Option

-Packages

installiert, die Sie über eine kommagetrennte Liste kombinieren können.

Tabelle 13-1. Rollen sowie Merkmale und Funktionen bei Nano-Servern

Rollen oder Merkmale und Funktionen Optionen

Hyper-V-Rolle

Failover-Cluster

Hyper-V-Gasttreiber für das Hosten von

Nano-Servern als virtuelle Maschine

Basistreiber für eine große Bandbreite von

Netzwerkadaptern und Speichercontrollern. Hierbei handelt es sich um den gleichen Satz mit Treibern, die in einer Server Core-Installation von Windows

Server 2016 Technical Preview enthalten sind.

-Compute

-Clustering

-GuestDrivers

-OEMDrivers

Dateiserver-Rolle und andere

Speicherkomponenten

Windows Defender Antimalware, einschließlich einer Standardsignaturdatei

Umkehrweiterleitung zur Anwendungskompatibilität.

Beispiel: allgemeine Anwendungsframeworks, wie z. B. Ruby, Node.js und andere

-Storage

-Defender

-ReverseForwarders

259 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

Tabelle 13-1. Rollen sowie Merkmale und Funktionen bei Nano-Servern (fortgesetzt)

Rollen oder Merkmale und Funktionen Optionen

DNS-Serverrolle

-Packages

Microsoft-NanoServer-DNSPackage

(-Packages Microsoft-NanoServer-DNS-

SNIA-API-Bibliothekspaket)

Desired State Configuration (DSC)

-Packages

Microsoft-NanoServer-DSCPackage

(-Packages Microsoft-NanoServer-DSC-

SNIA-API-Bibliothekspaket)

Internet Information Server (IIS)

Host-Support für Windows-Container

-Containers

Agent für den Manager der virtuelle Maschine im

Systemcenter

-Packages Microsoft-Windows-Server-

SCVMM-Package

-Packages Microsoft-Windows-Server-

SCVMM-Compute-Package

Anmerkung: Verwenden Sie dieses Paket nur, wenn Sie Hyper-V überwachen. Wenn Sie dieses

Paket installieren, verwenden Sie nicht die Option

-Compute

für die Hyper-V-Rolle. Verwenden Sie stattdessen die Option

-Packages

, um Folgendes zu installieren:

-Packages

Microsoft-NanoServer-Compute-Package

,

Microsoft-Windows-Server-SCVMM-

Compute-Package

.

Network Performance Diagnostics Service (NPDS)

-Packages

Microsoft-NanoServer-NPDSPackage

(-Packages Microsoft-NanoServer-DSC-

SNIA-API-Bibliothekspaket)

Data Center Bridging

-Packages

Microsoft-NanoServer-IISPackage

(-Packages Microsoft-NanoServer-DSC-

SNIA-API-Bibliothekspaket)

-Packages

Microsoft-NanoServer-DCBPackage

(-Packages Microsoft-NanoServer-DSC-

SNIA-API-Bibliothekspaket)

260 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

In den nächsten Abschnitten wird beschrieben, wie das Nano-Server-Image mit den erforderlichen Paketen konfiguriert wird und wie zusätzliche, für QLogic-Geräte spezifische Gerätetreiber hinzugefügt werden. Außerdem wird erläutert, wie die

Nano-Server-Wiederherstellungskonsole verwendet, ein Nano-Server per remote verwaltet und der Ntttcp-Datenverkehr über einen Nano-Server ausgeführt wird.

Implementieren eines Nano-Servers auf einem physischen Server

Führen Sie die folgenden Schritte aus, um ein virtuelles

Nano-Server-Festplattenlaufwerk zu erstellen, das mithilfe der vorinstallierten

Gerätetreiber auf einem phyischen Server ausgeführt wird.

So stellen Sie einen Nano-Server bereit:

1.

Laden Sie das Windows Server 2016-BS-Image herunter.

2.

Mounten Sie das ISO.

3.

Kopieren Sie die folgenden Dateien aus dem Ordner

NanoServer

in einen

Ordner auf Ihrer Festplatte:

NanoServerImageGenerator.psm1

Convert-WindowsImage.ps1

4.

Starten Sie Windows PowerShell als Administrator.

5.

Ändern Sie das Verzeichnis in einen Ordner, in den Sie die Dateien aus

Schritt 3 einfügen.

6.

Importieren Sie das NanoServerImageGenerator-Script, indem Sie den folgenden Befehl ausführen:

Import-Module .\NanoServerImageGenerator.psm1 -Verbose

7.

Um ein virtuelles Festplattenlaufwerk zu erstellen, das einen Computernamen festlegt und die OEM-Treiber und Hyper-V enthält, führen Sie den folgenden

Windows PowerShell-Befehl aus:

ANMERKUNG

Dieser Befehl fordert Sie dazu auf, ein Administrator-Passwort für das neue virtuelle Festplattenlaufwerke einzugeben.

New-NanoServerImage –DeploymentType Host –Edition

<Standard/Datacenter> -MediaPath <path to root of media>

-BasePath

.\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd

-ComputerName

<computer name> –Compute -Storage -Cluster -OEMDrivers

–Compute

261 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

-DriversPath "<Path to Qlogic Driver sets>"

Beispiel:

New-NanoServerImage –DeploymentType Host –Edition Datacenter

-MediaPath C:\tmp\TP4_iso\Bld_10586_iso

-BasePath ".\Base" -TargetPath

"C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName

"Nano-server1" –Compute -Storage -Cluster -OEMDrivers

-DriversPath

"C:\Nano\Drivers"

In den vorherigen Beispielen steht

C:\Nano\Drivers

für den Pfad der

QLogic-Treiber. Die Erstellung einer Datei für ein virtuelles Festplattenlaufwerk

über diesen Befehl dauert etwa 10 bis 15 Minuten. Im Folgenden wird eine

Beispielausgabe für diesen Befehl angezeigt:

Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10

Copyright (C) Microsoft Corporation. All right reserved.

Version 10.0.14300.1000.amd64fre.rs1_release_svc.160324-1723

INFO : Looking for the requested Windows image in the WIM file

INFO : Image 1 selected (ServerDatacenterNano)...

INFO : Creating sparse disk...

INFO : Mounting VHD...

INFO : Initializing disk...

INFO : Creating single partition...

INFO : Formatting windows volume...

INFO : Windows path (I:) has been assigned.

INFO : System volume location: I:

INFO : Applying image to VHD. This could take a while...

INFO : Image was applied successfully.

INFO : Making image bootable...

INFO : Fixing the Device ID in the BCD store on VHD...

INFO : Drive is bootable. Cleaning up...

INFO : Dismounting VHD...

INFO : Closing Windows image...

INFO : Done.

Done. The log is at:

C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log

8.

Melden Sie sich als Administrator auf dem physischen Server auf, auf dem das virtuelle Nano-Server-Festplattenlaufwerk ausgeführt werden soll.

262 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

9.

So kopieren Sie das virtuelle Festplattenlaufwerk auf den physischen Server und konfigurieren es zum Starten über das neue virtuelle Festplattenlaufwerk: a.

Gehen Sie zu

Computer Management > Storage > Disk Management

(Computerverwaltung > Speicher > Festplattenverwaltung).

b.

Klicken Sie mit der rechten Maustaste auf

Disk Management

(Festplattenverwaltung) und wählen Sie

Attach VHD

(Virtuelles

Festplattenlaufwerk anhängen) aus.

c.

Stellen Sie den VHD-Dateipfad bereit.

d.

Klicken Sie auf

OK

.

e.

Führen Sie

bcdboot d:\windows

aus.

ANMERKUNG

In diesem Beispiel wird das VHD unter

D:\

angehängt.

f.

Klicken Sie mit der rechten Maustaste auf

Disk Management

(Festplattenverwaltung) und wählen Sie

Dettach VHD

(Virtuelles

Festplattenlaufwerk lösen) aus.

10. Starten Sie den physischen Server in das Nano-Server-VHD neu.

11.

Melden Sie sich anhand des Administrator-Passworts, das Sie beim

Ausführen des Scripts in Schritt 7 bereitgestellt haben, an der

Wiederherstellungskonsole an.

12. Rufen Sie die IP-Adresse des Nano-Server-Computers ab.

13. Verwenden Sie das Remote-Windows PowerShell-Tool (oder ein anderes

Remote-Verwaltungstool), um den Server zu verbinden und per remote zu verwalten.

Implementieren eines Nano-Servers in einer virtuellen

Maschine

So erstellen Sie ein virtuelles Nano-Server-Festplattenlaufwerk zum

Ausführen in einer virtuellen Maschine:

1.

Laden Sie das Windows Server 2016-BS-Image herunter.

2.

Gehen Sie über die in Schritt 1 heruntergeladene Datei in den Ordner

NanoServer

.

3.

Kopieren Sie die folgenden Dateien aus dem Ordner

NanoServer

in einen

Ordner auf Ihrer Festplatte:

NanoServerImageGenerator.psm1

Convert-WindowsImage.ps1

263 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

4.

Starten Sie Windows PowerShell als Administrator.

5.

Ändern Sie das Verzeichnis in einen Ordner, in den Sie die Dateien aus

Schritt 3 einfügen.

6.

Importieren Sie das NanoServerImageGenerator-Script, indem Sie den folgenden Befehl ausführen:

Import-Module .\NanoServerImageGenerator.psm1 -Verbose

7.

Führen Sie den folgenden Windows PowerShell-Befehl aus, um ein virtuelles Festplattenlaufwerk zu erstellen, das einen Computernamen festlegt und die Hyper-V-Gasttreiber beinhaltet:

ANMERKUNG

Der folgende Befehl fordert Sie dazu auf, ein Administrator-Passwort für das neue virtuelle Festplattenlaufwerk einzugeben.

New-NanoServerImage –DeploymentType Guest –Edition

<Standard/Datacenter> -MediaPath <path to root of media>

-BasePath

.\Base -TargetPath .\NanoServerPhysical\NanoServer.vhd

-ComputerName

<computer name> –GuestDrivers

Beispiel:

New-NanoServerImage –DeploymentType Guest –Edition Datacenter

-MediaPath C:\tmp\TP4_iso\Bld_10586_iso

-BasePath .\Base -TargetPath .\Nano1\VM_NanoServer.vhd

-ComputerName

Nano-VM1 –GuestDrivers

Die Erstellung einer Datei für ein virtuelles Festplattenlaufwerk über den vorherigen Befehl dauert etwa 10 bis 15 Minuten. Im Folgenden wird eine

Beispielausgabe für diesen Befehl angezeigt:

PS C:\Nano>

New-NanoServerImage –DeploymentType Guest –Edition

Datacenter -MediaPath

C:\tmp\TP4_iso\Bld_10586_iso -BasePath .\Base -TargetPath

.\Nano1\VM_NanoServer.vhd -ComputerName Nano-VM1 –GuestDrivers cmdlet New-NanoServerImage at command pipeline position 1

Legen Sie Werte für die folgenden Parameter fest:

Windows(R) Image to Virtual Hard Disk Converter for Windows(R) 10

Copyright (C) Microsoft Corporation. All right reserved.

Version 10.0.14300. 1000.amd64fre.rs1_release_svc.160324-1723

INFO : Looking for the requested Windows image in the WIM file

264 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

INFO : Image 1 selected (ServerTuva)...

INFO : Creating sparse disk...

INFO : Attaching VHD...

INFO : Initializing disk...

INFO : Creating single partition...

INFO : Formatting windows volume...

INFO : Windows path (G:) has been assigned.

INFO : System volume location: G:

INFO : Applying image to VHD. This could take a while...

INFO : Image was applied successfully.

INFO : Making image bootable...

INFO : Fixing the Device ID in the BCD store on VHD...

INFO : Drive is bootable. Cleaning up...

INFO : Closing VHD...

INFO : Deleting pre-existing VHD : Base.vhd...

INFO : Closing Windows image...

INFO : Done.

Done. The log is at:

C:\Users\ADMINI~1\AppData\Local\Temp\2\NanoServerImageGenerator.log

8.

Erstellen Sie eine neue virtuelle Maschine in Hyper-V Manager und verwenden Sie das in

Schritt 7

erstellte virtuelle Festplattenlaufwerk.

9.

Starten Sie die virtuelle Maschine.

10. Erstellen Sie eine Verbindung zur virtuellen Maschine im Hyper-V-Manager.

11.

Melden Sie sich anhand des Administrator-Passworts, das Sie beim

Ausführen des Scripts in Schritt 7 bereitgestellt haben, an der

Wiederherstellungskonsole an.

12. Rufen Sie die IP-Adresse des Nano-Server-Computers ab.

13. Verwenden Sie das Remote-Windows PowerShell-Tool (oder ein anderes

Remote-Verwaltungstool), um den Server zu verbinden und per remote zu verwalten.

Verwalten eines Nano-Servers über eine Remote-Verbindung

Die folgenden Optionen für die Remote-Verwaltung des Nano-Servers sind verfügbar: Windows PowerShell, Windows-Verwaltungsinstrumentation (WMI),

Windows-Remoteverwaltung und Notverwaltungsdienste (EMS). Der folgende

Abschnitt beschreibt den Remote-Zugriff auf den Nano-Server über eine

Remote-Verwaltung mit Windows PowerShell.

265 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

Verwalten eines Nano-Servers über die Windows PowerShell-Remote-Verwaltung

So verwalten Sie einen Nano-Server über die Windows

PowerShell-Remote-Verwaltung:

1.

Fügen Sie die IP-Adresse des Nano-Servers zur Liste der vertrauenswürdigen

Hosts Ihres Verwaltungscomputers hinzu.

ANMERKUNG

Verwenden Sie die Wiederherstellungskonsole, um die

Server-IP-Adresse zu ermitteln.

2.

Fügen Sie das verwendete Konto zu den Administratoren des Nano-Servers hinzu.

3.

(Optional) Aktivieren Sie

CredSSP

, falls erforderlich.

Hinzufügen des Nano-Servers zu einer Liste der vertrauenswürdigen Hosts

Fügen Sie in einer hervorgehobenen Windows PowerShell-Aufforderung den

Nano-Server zur Liste der vertrauenswürdigen Hosts hinzu, indem Sie den folgenden Befehl ausführen:

Set-Item WSMan:\localhost\Client\TrustedHosts "<IP address of Nano

Server>"

Beispiele:

Set-Item WSMan:\localhost\Client\TrustedHosts "172.28.41.152"

Set-Item WSMan:\localhost\Client\TrustedHosts "*"

ANMERKUNG

Mit dem vorherigen Befehl werden alle Host-Server als vertrauenswürdige

Hosts definiert.

Starten der Remote-Windows PowerShell-Sitzung

Starten Sie über eine hervorgehobene lokale Windows PowerShell-Sitzung die

Remote-Windows PowerShell-Sitzung, indem Sie die folgenden Befehle ausführen:

$

ip = "<IP address of Nano Server>"

$

user = "$ip\Administrator"

Enter-PSSession -ComputerName $ip -Credential $user

266 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

Sie können nun wie gewohnt Windows PowerShell-Befehle auf dem Nano-Server ausführen. Nicht alle Windows PowerShell-Befehle sind jedoch in dieser Version des Nano-Servers verfügbar. Um zu ermitteln, welche Befehle verfügbar sind, führen Sie den Befehl

Get-Command -CommandType Cmdlet

aus. Um die

Remote-Sitzung zu beenden, führen Sie den Befehl

Exit-PSSession

aus.

Weitere Details zum Nano-Server finden Sie hier: https://technet.microsoft.com/en-us/library/mt126167.aspx

Verwalten von QLogic-Adaptern auf einem

Windows-Nano-Server

Weitere Informationen zur Verwaltung von QLogic-Adaptern in

Nano-Server-Umgebungen finden Sie in der Windows

QConvergeConsole-Benutzeroberfläche und den Verwaltungswerkzeugen für die

Windows QLogic Control Suite-Befehlszeilenschnittstelle sowie der verbundenen

Dokumentation, die Sie auf der Cavium-Website herunterladen können:

RoCE-Konfiguration

So verwalten Sie einen Nano-Server über die Windows

PowerShell-Remote-Verwaltung:

1.

Stellen Sie über eine Windows PowerShell-Remote-Verwaltung von einer anderen Maschine eine Verbindung zum Nano-Server her. Zum Beispiel:

PS C:\Windows\system32>

$1p="172.28.41.152"

PS C:\Windows\system32>

$user="172.28.41.152\Administrator"

PS C:\Windows\system32>

Enter-PSSession -ComputerName $ip

-Credential $user

ANMERKUNG

Im vorherigen Beispiel lautet die Nano-Server-IP-Adresse

172.28.41.152

und der Benutername ist

Administrator

.

Wenn der Nano-Server erfolgreich verbunden wurde, wird Folgendes ausgegeben:

[172.28.41.152]: PS C:\Users\Administrator\Documents>

2.

Um zu bestimmen, ob die Treiber installiert wurden und die Verbindung verfügbar ist, führen Sie den folgenden Windows PowerShell-Befehl aus:

[172.28.41.152]: PS C:\Users\Administrator\Documents>

Get-NetAdapter

267 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

Abbildung 13-19

zeigt ein Beispiel für die Ausgabe.

Abbildung 13-19. Windows PowerShell-Befehl: Get-NetAdapter

3.

Führen Sie zum Überprüfen, ob RDMA auf dem Adapter aktiviert ist, den folgenden Windows PowerShell-Befehl aus:

[172.28.41.152]: PS C:\Users\Administrator\Documents>

Get-NetAdapterRdma

Abbildung 13-20

zeigt ein Beispiel für die Ausgabe.

Abbildung 13-20. Windows PowerShell-Befehl: Get-NetAdapterRdma

4.

Um eine IP-Adresse und eine VLAN-ID allen Schnittstellen auf dem Adapter zuzuweisen, führen Sie die folgenden Windows PowerShell-Befehle aus:

[172.28.41.152]: PS C:\>

Set-NetAdapterAdvancedProperty

-InterfaceAlias "slot 1 port 1" -RegistryKeyword vlanid

-RegistryValue 5

[172.28.41.152]: PS C:\>

netsh interface ip set address name="SLOT 1 Port 1" static 192.168.10.10 255.255.255.0

5.

Um eine SMB-Freigabe auf dem Nano-Server zu erstellen, führen Sie den folgenden Windows PowerShell-Befehl aus:

[172.28.41.152]: PS C:\Users\Administrator\Documents>

New-Item -Path c:\ -Type Directory -Name smbshare -Verbose

Abbildung 13-21

zeigt ein Beispiel für die Ausgabe.

Abbildung 13-21. Windows PowerShell-Befehl: New-Item

268 AH0054602-01 F

13–Windows Server 2016

Implementieren und Verwalten eines Nano-Servers

[172.28.41.152]: PS C:\>

New-SMBShare -Name "smbshare" -Path c:\smbshare -FullAccess Everyone

Abbildung 13-22

zeigt ein Beispiel für die Ausgabe.

Abbildung 13-22. Windows PowerShell-Befehl: New-SMBShare

6.

Um die SMB-Freigabe als Netzwerklaufwerk der Client-Maschine zuzuordnen, führen Sie den folgenden Windows PowerShell-Befehl aus:

ANMERKUNG

Die IP-Adresse einer Schnittstelle auf dem Nano-Server lautet

192.168.10.10.

PS C:\Windows\system32>

net use z: \\192.168.10.10\smbshare

This command completed successfully.

7.

Um Lese-/Schreibvorgänge auf der SMB-Freigabe durchzuführen und die

RDMA-Statistik auf dem Nano-Server zu prüfen, führen Sie den folgenden

Windows PowerShell-Befehl aus:

[172.28.41.152]: PS C:\>

(Get-NetAdapterStatistics).RdmaStatistics

Abbildung 13-23

zeigt die Befehlsausgabe.

Abbildung 13-23. Windows PowerShell-Befehl: Get-NetAdapterStatistics

269 AH0054602-01 F

14

Fehlerbehebung

In diesem Abschnitt finden Sie die folgenden Informationen zur Fehlerbehebung:

Fehlerbehebung – Checkliste

„Überprüfen der geladenen Treiber“ auf Seite 271

„Testen der Netzwerkanbindung“ auf Seite 272

„Microsoft Virtualization mit Hyper-V“ auf Seite 274

„Linux-spezifische Probleme“ auf Seite 274

„Sonstige Probleme“ auf Seite 274

„Erfassen von Fehlerbehebungsdaten“ auf Seite 274

Fehlerbehebung – Checkliste

VORSICHT!

Lesen Sie den Abschnitt

„Sicherheitsvorkehrungen“ auf Seite 5

, bevor Sie das Servergehäuse zum Hinzufügen oder Entfernen des Adapters öffnen.

In der folgenden Checkliste werden Maßnahmen zur Behebung von Problemen empfohlen, die bei der Installation des Adapter der 41

xxx

-Serie beziehungsweise bei dessen Ausführung im System auftreten können.

 Überprüfen Sie alle Kabel und Anschlüsse. Überprüfen Sie, ob alle Kabel ordnungsgemäß am Netzwerkadapter und am Switch angeschlossen sind.

 Überprüfen Sie die Adapterinstallation anhand der Angaben unter

„Installieren des Adapters“ auf Seite 6 . Überprüfen Sie, ob der Adapter fest

im Steckplatz sitzt. Suchen Sie nach spezifischen Hardwareproblemen, beispielsweise nach einer offensichtlichen Beschädigung einer

Platinenkomponente oder des PCI-Stiftsockels.

 Überprüfen Sie die Konfigurationseinstellungen und ändern Sie diese, falls sie mit den Einstellungen anderer Geräte in Konflikt stehen.

 Überprüfen Sie, ob der Server das neueste BIOS verwendet.

270 AH0054602-01 F

14–Fehlerbehebung

Überprüfen der geladenen Treiber

 Versuchen Sie, den Adapter in einem anderen Steckplatz zu installieren.

Wenn die neue Installationsposition funktioniert, ist unter Umständen der ursprüngliche Systemsteckplatz defekt.

 Tauschen Sie den nicht funktionierenden Adapter gegen einen Adapter aus, von dem Sie wissen, dass er korrekt funktioniert. Wenn der zweite Adapter in dem Steckplatz funktioniert, in dem der erste Adapter nicht betrieben werden konnte, ist der erste Adapter vermutlich defekt.

 Installieren Sie den Adapter in einem anderen funktionierenden System, und führen Sie die Tests erneut durch. Wenn der Adaptertest im neuen System erfolgreich ausgeführt werden kann, ist möglicherweise das ursprüngliche

System defekt.

 Entfernen Sie alle anderen Adapter aus dem System, und führen Sie die

Tests anschließend erneut durch. Wenn der Adaptertest erfolgreich verläuft, liegt unter Umständen ein Konflikt mit den anderen Adaptern vor.

Überprüfen der geladenen Treiber

Stellen Sie sicher, dass die aktuellen Treiber für Ihr Windows-, Linux- oder

VMware-System geladen wurden.

Überprüfen von Treibern in Windows

Im Geräte-Manager finden Sie alle wichtigen Informationen zum Adapter, zum

Verbindungsstatus und zur Netzwerkkonnektivität.

Überprüfen von Treibern in Windows

Überprüfen Sie, ob der Treiber qed.ko korrekt geladen ist. Führen Sie dazu den folgenden Befehl aus:

#

lsmod | grep -i <module name>

Wenn der Treiber geladen wurde, zeigt die Ausgabe dieses Befehls die

Treibergröße in Byte an. Das folgende Beispiel zeigt die geladenen Treiber für das qed-Modul:

#

lsmod | grep -i qed

qed 199238 1 qede 1417947 0

Wenn Sie nach dem Laden eines neuen Treibers einen Neustart durchführen, können Sie den folgenden Befehl ausgeben, um zu überprüfen, ob der derzeit geladene Treiber die korrekte Version hat.

modinfo qede

271 AH0054602-01 F

14–Fehlerbehebung

Testen der Netzwerkanbindung

Sie können auch den folgenden Befehl ausgeben:

[root@test1]#

ethtool -i eth2

driver: qede version: 8.4.7.0

firmware-version: mfw 8.4.7.0 storm 8.4.7.0

bus-info: 0000:04:00.2

Wenn Sie einen neuen Treiber geladen, das System aber noch nicht neu gestartet haben, zeigt Ihnen der Befehl modinfo

nicht die aktualisierten Treiberinformationen an. Geben Sie den Befehl dmesg

ein, um die Protokolle anzuzeigen. In diesem

Beispiel wird anhand des letzten Eintrags der Treiber identifiziert, der beim Neustart aktiv sein wird.

#

dmesg | grep -i "Cavium" | grep -i "qede"

[ 10.097526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x

[ 23.093526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x

[ 34.975396] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x

[ 34.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x

[ 3334.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x

Überprüfen von Treibern in VMware

Um zu überprüfen, ob die VMware ESXi-Treiber geladen wurden, führen Sie den folgenden Befehl aus:

#

esxcli software vib list

Testen der Netzwerkanbindung

Dieser Abschnitt enthält Abläufe zum Testen der Netzwerkkonnektivität in

Windows- und Linux-Umgebungen.

ANMERKUNG

Stellen Sie bei der Verwendung erzwungener Übertragungsraten sicher, dass sowohl für den Adapter als auch für den Switch dieselbe

Übertragungsrate erzwungen wird.

272 AH0054602-01 F

14–Fehlerbehebung

Testen der Netzwerkanbindung

Testen der Netzwerkkonnektivität für Windows

Testen Sie die Netzwerkkonnektivität über den Befehl ping

.

Gehen Sie wie folgt vor, um zu bestimmen, ob die Netzwerkkonnektivität betriebsbereit ist:

1.

Klicken Sie auf

Start

und anschließend

Run

(Ausführen).

2.

Geben Sie in das Feld

Open

(Öffnen)

cmd

ein und klicken Sie dann auf

OK

.

3.

Geben Sie den folgen Befehl aus, um die zu testende Netzwerkverbindung anzuzeigen:

ipconfig /all

4.

Geben Sie den folgenden Befehl aus, und drücken Sie dann die ENTER

(EINGABE).

ping <IP-Adresse>

Die angezeigte Ping-Statistik gibt an, ob eine Netzwerkverbindung besteht.

Testen der Netzwerkkonnektivität für Linux

Gehen Sie wie folgt vor, um zu überprüfen, ob die Ethernet-Schnittstelle betriebsbereit ist:

1.

Führen Sie zum Überprüfen des Status der Ethernet-Schnittstelle den Befehl ifconfig

aus.

2.

Führen Sie zum Überprüfen der Statistik der Ethernet-Schnittstelle den

Befehl netstat -i

aus.

Gehen Sie wie folgt vor, um zu überprüfen, ob die Verbindung aufgebaut wurde:

1.

Führen Sie einen Ping-Befehl für einen IP-Host auf dem Netzwerk durch.

Geben Sie den folgenden Befehl in die Befehlszeile ein:

ping <IP-Adresse>

2.

Drücken Sie ENTER (Eingabe).

Die angezeigte Ping-Statistik gibt an, ob eine Netzwerkverbindung besteht.

Die Verbindungsgeschwindigkeit des Adapters kann unter Verwendung des

GUI-Tools des Betriebssystems oder des ethtool-Befehls ethtool –s ethX speed SSSS

entweder auf 10 GBit/s oder 25 GBit/s erzwungen werden.

273 AH0054602-01 F

14–Fehlerbehebung

Microsoft Virtualization mit Hyper-V

Microsoft Virtualization mit Hyper-V

Microsoft Virtualization ist ein Hypervisor-basiertes Virtualisierungssystem für

Windows Server 2012 R2. Weitere Informationen zu Hyper-V finden Sie unter: https://technet.microsoft.com/en-us/library/Dn282278.aspx

Linux-spezifische Probleme

Problem:

Lösung:

Beim Kompilieren von Treiberquellcode werden Fehlermeldungen ausgegeben.

Bei einigen Installationen von Linux-Distributionen werden die

Entwicklungs-Tools und Kernel-Quellen nicht standardmäßig mit installiert. Sorgen Sie dafür, dass die Entwicklungswerkzeuge für die von Ihnen verwendete Linux-Distribution installiert werden, bevor Sie mit dem Kompilieren des Treiberquellcodes beginnen.

Sonstige Probleme

Problem:

Lösung:

Der Adapter der 41

xxx

-Serie wurde heruntergefahren und es wird eine Fehlermeldung angezeigt, wonach der Lüfter des

Netzwerkadapters ausgefallen ist.

Das Adapter der 41

xxx

-Serie wird eventuell heruntergefahren, um dauerhafte Schäden zu verhindern. Wenden Sie sich an den technischen Support von Cavium, um Unterstützung zu erhalten.

Problem:

Lösung:

In einer ESXi-Umgebung, in der der iSCSI-Treiber (qedil) installiert ist, kann der VI-Client gelegentlich nicht auf den Host zugreifen.

Dieses Problem liegt in der Terminierung des Host-Daemons begründet, der sich auf die Konnektivität mit dem VI-Client auswirkt.

Wenden Sie sich an den technischen Support von VMware.

Erfassen von Fehlerbehebungsdaten

Verwenden Sie die Befehle in

Tabelle 14-1 , um Fehlerbehebungsdaten

zu erfassen.

Tabelle 14-1. Befehle zum Erfassen von Fehlerbehebungsdaten

Fehlerbehebungsdaten

demesg-T ethtool

Kernel-Protokolle

Registerdump

Beschreibung

274 AH0054602-01 F

14–Fehlerbehebung

Erfassen von Fehlerbehebungsdaten

Tabelle 14-1. Befehle zum Erfassen von Fehlerbehebungsdaten (fortgesetzt)

Fehlerbehebungsdaten

sys_info.sh

Beschreibung

Systeminformationen; werden im Treiberbündel bereitgestellt

275 AH0054602-01 F

A

Adapter-LEDS

Tabelle A-1

führt die LED-Anzeigen für den Verbindungs- und Aktivitätsstatus des

Adapter-Ports auf.

Tabelle A-1. Adapter-Port – Verbindungs- und Aktivitäts-LED

Port-LED

Link-LED

Aktivitäts-LED

LED-Anzeige

Aus

Leuchtet konstant

Aus

Blinkend

Netzwerkstatus

Keine Verbindung (Kabel abgetrennt)

Verbindung

Keine Port-Aktivität

Port-Aktivität

276 AH0054602-01 F

B

Kabel und optische Module

In diesem Anhang finden Sie die folgenden Informationen zu den unterstützten

Kabeln und optischen Modulen:

Unterstützte Spezifikationen

„Getestete Kabel und optische Module“ auf Seite 279

„Getestete Switches“ auf Seite 283

Unterstützte Spezifikationen

Adapter der 41

xxx

-Serie unterstützt eine Vielzahl von Kabeln und optischen

Modulen, die mit SFF8024 kompatibel sind. Die spezifische

Formfaktor-Kompatibilität lautet wie folgt:

 SFPs:

 SFF8472 (für die Speicherzuordnung)

 SFF8419 oder SFF8431 (Signale für geringe Geschwindigkeit und

Stromversorgung)

 Quad Small Form Factor Pluggable (QSFP, kleiner anschließbarer

Quad-Formfaktor):

 SFF8636 (für die Speicherzuordnung)

 SFF8679 oder SFF8436 (Signale für geringe Geschwindigkeit und

Stromversorgung)

 Elektrischer Eingang/Ausgang für optische Module, aktive Kupferkabel

(ACC) und aktive optische Kabel (AOC):

 10G: begrenzende SFF8431-Schnittstelle

 25G: IEEE802.3 in Anhang 109B (25GAUI)

277 AH0054602-01 F

B–Kabel und optische Module

Unterstützte Spezifikationen

278 AH0054602-01 F

B–Kabel und optische Module

Getestete Kabel und optische Module

Getestete Kabel und optische Module

QLogic übernimmt keine Garantie dafür, dass jedes Kabel oder optische Modul, das den Konformitätsanforderungen entspricht, mit den Adapter der 41

xxx

-Serie verwendet werden kann. Cavium hat die unter

Tabelle B-1

aufgeführten

Komponenten getestet und stellt Ihnen diese Liste zur Verfügung.

Tabelle B-1. Getestete Kabel und optische Module

Geschwindigkeit/

Formfaktor

Hersteller

Teilenummer Typ

Kabellänge

a

Breite

10G DAC

b

25G DAC

Brocade

Cisco

Dell

®

Amphenol

®

Dell

1539W

V239T

48V40

H606N

K591N

G849N

V250M

53HVN

358VV

407-BBBK

407-BBBI

407-BBBP

NDCCGF0001

NDCCGF0003

NDCCGJ0003

NDCCGJ0005

2JVDD

D0R73

OVXFJY

9X8JP

Kabel

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP+10G-an-SFP+10G

SFP28-25G-an-SFP28-25G

SFP28-25G-an-SFP28-25G

SFP28-25G-an-SFP28-25G

SFP28-25G-an-SFP28-25G

SFP28-25G-an-SFP28-25G

SFP28-25G-an-SFP28-25G

SFP28-25G-an-SFP28-25G

SFP28-25G-an-SFP28-25G

3

5

1

5

1

3

2

3

5

1

3

3

5

5

1

1

3

5

1

3

26

26

26

26

30

30

26

26

26

26

26

26

26

26

26

26

26

26

30

26

279 AH0054602-01 F

B–Kabel und optische Module

Getestete Kabel und optische Module

Tabelle B-1. Getestete Kabel und optische Module (fortgesetzt)

Geschwindigkeit/

Formfaktor

Hersteller

Teilenummer Typ

Kabellänge

a

40G Kupfer

QSFP

Splitter

(4 × 10G)

1G Kupfer

RJ45

Transceiver

Dell

Dell

TCPM2

27GG5

P8T4W

8T47V

XK1M7

XTY28

QSFP+40G-an-4xSFP+10G

QSFP+40G-an-4xSFP+10G

QSFP+40G-an-4xSFP+10G

SFP+ auf 1G RJ

SFP+ auf 1G RJ

SFP+ auf 1G RJ

1

3

5

1G RJ45

RJ45

1G RJ45

1G Kupfer

RJ45

Transceiver

Dell PGYJT SFP+ auf 10G RJ 10G RJ45

40G DAC-

Splitter

(4 × 10G)

100G

DAC-Splitter

(4 × 25G)

Dell

Amphenol

Dell

FCI

470-AAVO

470-AAXG

470-AAXH

NDAQGJ-0001

QSFP+40G-an-4xSFP+10G

QSFP+40G-an-4xSFP+10G

QSFP+40G-an-4xSFP+10G

QSFP28-100G-an-

4xSFP28-25G

NDAQGF-0002

NDAQGF-0003

QSFP28-100G-an-

4xSFP28-25G

QSFP28-100G-an-

4xSFP28-25G

NDAQGJ-0005 QSFP28-100G-an-

4xSFP28-25G

026FN3 Rev A00 QSFP28-100G-an-

4XSFP28-25G

0YFNDD Rev A00 QSFP28-100G-an-

4XSFP28-25G

07R9N9 Rev A00 QSFP28-100G-an-

4XSFP28-25G

10130795-4050LF QSFP28-100G-an-

4XSFP28-25G

5

1

1

3

2

3

5

1

2

3

5

Breite

k.A.

30

30

26

26

26

26

26

26

26

26

26

30

30

26 k.A.

k.A.

k.A.

280 AH0054602-01 F

B–Kabel und optische Module

Getestete Kabel und optische Module

Tabelle B-1. Getestete Kabel und optische Module (fortgesetzt)

Geschwindigkeit/

Formfaktor

Hersteller

Teilenummer Typ

Kabellänge

a

Avago

®

Optischer 10G-

Transceiver

Dell

Finisar

®

Dell

Optischer 25G-

Transceiver

Finisar

Optische Lösungen

AFBR-703SMZ SFP+ SR

AFBR-701SDZ

Y3KJN

SFP+ LR

SFP+ SR

WTRD1

3G84K

RN84N

FTLX8571D3BCL-

QL

SFP+ SR

SFP+ SR

SFP+ SR

SFP+ SR

FTLX1471D3BCL-

QL

P7D7R

SFP+ LR

FTLF8536P4BCL

FTLF8538P4BCL

Optischer SFP28-

Transceiver (SR)

Optischer SFP28-

Transceiver (SR)

Optischer SFP28-

Transceiver (SR, kein FEC) k.A.

k.A.

1G/10G

10G

10G

10G-LR k.A.

k.A.

25G SR k.A.

k.A.

Breite

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

281 AH0054602-01 F

B–Kabel und optische Module

Getestete Kabel und optische Module

Tabelle B-1. Getestete Kabel und optische Module (fortgesetzt)

Geschwindigkeit/

Formfaktor

Hersteller

Teilenummer

10G AOC

25G AOC

c Dell

Dell

InnoLight

®

470-ABLV

470-ABLZ

470-ABLT

470-ABML

470-ABLU

470-ABMD

470-ABMJ

YJF03

P9GND

T1KCN

1DXKP

MT7R2

K0T7R

W5G04

X5DH4

TF-PY003-N00

TF-PY020-N00 a

Die Kabellänge wird in Metern angegeben.

b

DAC ist ein Direktverbindungskabel.

c

AOC ist ein aktives optisches Kabel.

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP+ AOC

SFP28 AOC

SFP28 AOC

SFP28 AOC

Typ

Kabellänge

a

15

20

20

3

20

7

10

3

5

10

15

20

2

5

7

2

3

Breite

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

k.A.

282 AH0054602-01 F

B–Kabel und optische Module

Getestete Switches

Getestete Switches

In Tabelle B-2

sind die Switches aufgeführt, die bezüglich Interoperabilität mit den

Adapter der 41

xxx

-Serien getestet wurden. Diese Liste basiert auf Switches, die zum Zeitpunkt der Produktveröffentlichung verfügbar waren, und unterliegt

Änderungen, sollten neue Switches in den Markt eingeführt oder nicht mehr angeboten werden.

Tabelle B-2. Auf Interoperabilität getestete Switches

Arista

Cisco

Dell EMC

HPE

Hersteller

Mellanox

®

Ethernet-Switch-Modell

7060X

7160

Nexus 3132

Nexus 3232C

Nexus 5548

Nexus 5596T

Nexus 6000

S6100

Z9100

FlexFabric 5950

SN2410

SN2700

283 AH0054602-01 F

C

Dell Z9100-Switch-

Konfiguration

Der Adapter der 41

xxx

-Serie unterstützt Verbindungen mit dem Dell

Z9100-Ethernet-Switch. Bis zur Standardisierung des automatischen

Verhandlungsprozesses muss der Switch jedoch explizit für die Verbindung mit dem Adapter mit 25 GBit/s konfiguriert werden.

So konfigurieren Sie einen Dell Z9100-Switch-Port für die Verbindung mit dem Adapter der 41

xxx

-Serie mit 25 GBit/s:

1.

Stellen Sie eine serielle Portverbindung zwischen Ihrer

Verwaltungs-Workstation und dem Switch her.

2.

Öffnen Sie eine Befehlszeilensitzung und melden Sie sich dann wie folgt am

Switch an:

Login:

admin

Passwort:

admin

3.

Aktivieren Sie die Konfiguration des Switch-Ports:

Dell>

enable

Passwort:

xxxxxx

Dell#

config

4.

Identifizieren Sie das Modul und den zu konfigurierenden Port. In diesem

Beispiel werden Modul 1 und Port 5 verwendet:

Dell(conf)#stack-unit 1 port 5 ?

portmode Set portmode for a module

Dell(conf)#stack-unit 1 port 5 portmode ?

dual Enable dual mode quad Enable quad mode single Enable single mode

Dell(conf)#stack-unit 1 port 5 portmode quad ?

speed Each port speed in quad mode

Dell(conf)#stack-unit 1 port 5 portmode quad speed ?

10G Quad port mode with 10G speed

284 AH0054602-01 F

C–Dell Z9100-Switch- Konfiguration

25G Quad port mode with 25G speed

Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G

Informationen zum Ändern der Verbindungsgeschwindigkeit des Adapters

finden Sie unter „Testen der Netzwerkanbindung“ auf Seite 272

.

5.

Überprüfen Sie, ob der Port bei 25 GB/s arbeitet:

Dell# Dell#

show running-config | grep "port 5"

stack-unit 1 port 5 portmode quad speed 25G

6.

Gehen Sie folgendermaßen vor, um die automatische Verhandlung auf

Switch-Port 5 zu deaktivieren: a.

Identifizieren Sie die Switch-Port-Schnittstelle (Modul 1, Port 5,

Schnittstelle 1) und bestätigen Sie den Status für die automatische

Aushandlung:

Dell(conf)#

interface tw 1/5/1

Dell(conf-if-tf-1/5/1)#intf-type cr4 ?

autoneg

Enable autoneg

b.

Deaktivieren Sie die automatische Aushandlung:

Dell(conf-if-tf-1/5/1)#

no intf-type cr4 autoneg

c.

Überprüfen Sie, ob die automatische Verhandlung deaktiviert wurde.

Dell(conf-if-tf-1/5/1)#

do show run interface tw 1/5/1

!

interface twentyFiveGigE 1/5/1 no ip address mtu 9416 switchport flowcontrol rx on tx on no shutdown no intf-type cr4 autoneg

Weitere Informationen zur Konfiguration des Dell Z9100-Switch finden Sie im entsprechenden Konfigurationshandbuch

Dell Z9100 Switch Configuration Guide

auf der Dell Support-Website: support.dell.com

285 AH0054602-01 F

D

Einschränkungen bei

Merkmalen und Funktionen

Dieser Anhang bietet Informationen zu den in der aktuellen Version vorhandenen

Einschränkungen bei den Merkmalen und Funktionen.

Die folgenden Einschränkungen in Bezug auf nebeneinander existierende

Merkmale werden möglicherweise mit einer künftigen Version gelöst. Sie können die Kombinationen aus Merkmalen und Funktionen künftig ohne zusätzliche

Konfigurationsschritte verwenden und müssen nur die zur Aktivierung dieser

Merkmale und Funktionen gewöhnlich erforderlichen Schritte ausführen.

Gleichzeitiges FCoE und iSCSI auf dem gleichen Port wird im

NPAR-Modus nicht unterstützt

In der aktuellen Version wird die Konfiguration von FCoE und iSCSI auf PFs, die zum gleichen physischen Port gehören, im NPAR-Modus nicht unterstützt

(gleichzeitiges FCoE und iSCSI auf dem gleichen Port

wird

nur im

Standardmodus unterstützt). Auf einem physischen Port im NPAR-Modus sind entweder FCoE oder iSCSI zulässig.

Nachdem eine PF mit der iSCSI- oder FCoE-Personalität über die HII- oder

QLogic-Verwaltungswerkzeuge auf einem Port konfiguriert wurde, wird die

Konfiguration des Speicherprotokolls auf einer anderen PF durch diese

Verwaltungswerkzeuge nicht unterstützt.

Da die Speicherpersonalität standardmäßig deaktiviert ist, wird nur die

Personalität, die über die HII- oder QLogic-Verwaltungswerkzeuge konfiguriert wurden, in die NVRAM-Konfiguration geschrieben. Wenn diese Einschränkung entfernt wird, können die Benutzer im NPAR-Modus zusätzliche PFs auf demselben Port für den Speicher konfigurieren.

Gleichzeitiges RoCE und iWARP auf demselben Port wird nicht unterstützt

RoCE und iWARP auf demselben Port wird nicht unterstützt Die HII- und

QLogic-Verwaltungswerkzeuge verhindern, dass Benutzer beide Elemente nebeneinander konfigurieren können.

286 AH0054602-01 F

D–Einschränkungen bei Merkmalen und Funktionen

NIC und SAN Boot auf Basis werden nur auf ausgewählten PFs unterstützt

Ethernet- und PXE-Start werden derzeit nur auf PF0 und PF1 unterstützt. In der

NPAR-Konfiguration werden Ethernet und PXE-Start durch andere PFs nicht unterstützt.

 Wenn

Virtualization Mode

(Virtualisierungsmodus) auf

NPAR

gesetzt ist, wird der Nicht-Offlload-FCoE-Startvorgang auf Partition 2 (PF2 und PF3) unterstützt und der iSCSI-Startvorgang wird auf Partition 3 (PF4 und PF5) unterstützt. Die iSCSI- und FCoE-Startvorgänge sind auf ein einzelnes Ziel pro Startsitzung beschränkt. Die Unterstützung des iSCSI-Startziel-LUNs ist auf LUN-ID 0 beschränkt.

 Wenn

Virtualization Mode

(Virtualisierungsmodus) auf

None

(Kein) oder

SR-IOV

gesetzt ist, wird der Start von SAN nicht unterstützt.

287 AH0054602-01 F

Glossar

ACPI

Die Spezifikation

Advanced Configuration and Power Interface (ACPI)

(Schnittstelle für erweiterte Konfiguration und

Stromversorgung) bietet einen offenen

Standard für einheitliche/s betriebssystembezogene/s

Gerätekonfiguration und

Strommanagement. Die ACPI definiert plattformunabhängige Schnittstellen für

Hardware-Erkennung, Konfiguration,

Strommanagement und Überwachung. Die

Spezifikation ist ein wichtiger

OSPM-Bestandteil (durch das

Betriebssystem gelenkte/s Konfiguration und Strommanagement). Dieser Begriff wird verwendet, um ein System zu beschreiben, auf dem ACPI implementiert wird. Damit entfällt die

Geräteverwaltungszuständigkeit von vorherigen Firmware-Schnittstellen.

Adapter

Platine, die als Schnittstelle zwischen dem

Hostsystem und den Zielgeräten fungiert.

Der Begriff Adapter ist gleichbedeutend mit Host Bus Adapter, Hostadapter und

Platine.

Adapter-Port

Ein Port auf der Adapterplatine.

Bandbreite

Die Bandbreite ist eine Maßeinheit für das

Datenvolumen, das bei einer bestimmten

Übertragungsrate übertragen werden kann. Abhängig vom angeschlossenen

Gerät kann ein Fibre-Channel-Port mit

1 GBit oder 2 GBit Daten mit nominalen

Raten von 1 GBit/s oder 2 GBit/s senden und empfangen. Dies entspricht tatsächlichen Bandbreitenwerten von

106 MB und 212 MB.

BAR

Basisadressregister. Wird verwendet, um

Speicheradressen, die von einem Gerät verwendet werden, oder Verschiebungen für Port-Adressen, zu erhalten. In der

Regel müssen Speicheradress-BARs in einem physischen RAM vorhanden sein, während E/A-Bereichs-BARs auf einer beliebigen Speicheradresse vorhanden sein können (selbst jenseits des physikalischen Speichers).

Basisadressregister

Siehe BAR

.

Basis-Eingabe/Ausgabe-System, BIOS

Siehe BIOS .

288 AH0054602-01 F

Benutzerhandbuch—Converged Network Adapters

41

xxx

-Serie

BIOS

Basis-Eingabe/Ausgabe-System

Programm (oder Dienstprogramm), das in der Regel im Flash PROM als Schnittstelle zwischen Hardware und Betriebssystem fungiert und das Starten über den Adapter ermöglicht.

Computer mit reduziertem Befehlssatz

Siehe

RISC

.

Data Center Bridging

Siehe

DCB .

Data Center Bridging-Austausch

Siehe

DCBX .

Dateiübertragungsprotokoll

Siehe

FTP .

DCB

Data Center Bridging. Bietet

Verbesserungen für vorhandene 802.1

Bridge-Spezifikationen, um den

Anforderungen von Protokollen und

Anwendungen im Rechenzentrum gerecht zu werden. Da vorhandene

Hochleistungsrechenzentren in der Regel mehrere anwendungsspezifische

Netzwerke umfassen, die auf verschiedenen

Verbindungsschicht-Technologien ausgeführt werden (Fibre Channel für

Speicherung und Ethernet für

Netzwerkverwaltung und

LAN-Konnektivität), ermöglicht DCB die

Verwendung von 802.1 Bridges für die

Bereitstellung eines konvergenten

Netzwerks, bei dem alle Anwendungen

über eine einzige physische Infrastruktur ausgeführt werden können.

DCBX

Data Center Bridging-Austausch.

Protokoll, das von DCB -Geräten

verwendet wird, um

Konfigurationsinformationen mit direkt angeschlossenen Peers auszutauschen.

Das Protokoll kann auch zur Erkennung von Fehlkonfigurationen und für die

Konfiguration des Peers verwendet werden.

DHCP

Dynamisches

Host-Konfigurationsprotokoll. Mit diesem

Protokoll können Computer in einem

IP-Netzwerk ihre Konfiguration von

Servern extrahieren, um Informationen zu diesem Computer nur auf Anfrage bereitzustellen.

Dynamisches

Host-Konfigurationsprotokoll

Siehe DHCP .

eCore

Eine Schicht zwischen dem BS und der

Hardware/Firmware. Es handelt sich um eine gerätespezifische BS-Agnostik. Wenn der eCore-Code BS-Dienste erfordert

(z. B. für die Speicherzuordnung, für den

Zugriff auf den PCI-Konfigurationsbereich usw.), ruft er eine abstrakte BS-Funktion ab, die in BS-spezifischen Schichten implementiert ist. eCore-Datenflüsse können durch die Hardware (z. B. über einen Interrupt) oder durch den

BS-spezifischen Bestandteil des Treibers

(z. B. durch das Laden oder Entladen des

Treibers) gefördert werden.

289 AH0054602-01 F

Benutzerhandbuch—Converged Network Adapters

41

xxx

-Serie

EEE

Energieeffizientes Ethernet. Eine Reihe von Verbesserungen an der Familie der

Computer-Netzwerkstandards für Ethernet mit verdrillten Kabeln und Backplanes, die einen geringen Stromverbrauch in Zeiten geringer Datenaktivität ermöglichen. Es wurde das Ziel verfolgt, den

Stromverbrauch um mindestens 50

Prozent bei unverändert umfassender

Kompatibilität mit den vorhandenen

Geräten zu reduzieren. Das Institute of

Electrical and Electronics Engineers

(IEEE) hat mit Unterstützung der IEEE

802.3az-Arbeitsgruppe den Standard entwickelt.

EFI

Erweiterbare Firmware-Schnittstelle.

Spezifikation, durch die eine

Softwareschnittstelle zwischen einem

Betriebssystem und der

Plattform-Firmware definiert wird. EFI fungiert als Ersatz für die frühere

BIOS-Firmware-Schnittstelle, die in allen

IBM PC-kompatiblen Personalcomputern vorhanden war.

Einheitliche erweiterbare

Firmware-Schnittstelle

Siehe

UEFI

.

energieeffizientes Ethernet

Siehe

EEE .

Erweiterbare Firmware-Schnittstelle.

Siehe

EFI

.

Ethernet

Die am häufigsten verwendete

LAN-Technologie, mit der Informationen zwischen Computern übertragen werden, in der Regel mit einer Geschwindigkeit von

10 und 100 Millionen Bit pro Sekunde

(Mb/s).

ETS

Verbesserte Übertragungsauswahl.

Standard, der die erweiterte

Übertragungsauswahl festlegt, um die

Zuteilung von Bandbreite für die verschiedenen Datenverkehrsklassen zu unterstützen. Wenn die angebotene Last in einer Datenverkehrsklasse die ihr zugeteilte Bandbreite nicht in Anspruch nimmt, ermöglicht die erweiterte

Übertragungsauswahl anderen

Datenverkehrsklassen, die verfügbare

Bandbreite zu nutzen. Die Prioritäten für die Zuteilung von Bandbreite bestehen parallel zu strikten Prioritäten. ETS enthält verwaltete Objekte, um die

Bandbreitenzuteilung zu unterstützen.

Weitere Informationen finden Sie unter: http://ieee802.org/1/pages/802.1az.html

FCoE

Fibre Channel Over Ethernet Eine neue

Technologie, die durch die

T11-Normungsorganisation definiert wurde und ermöglicht, dass

Netzwerkdatenverkehr auf herkömmlichen

Fibre Channel-Speichern einen

Ethernet-Link durchlaufen kann, indem

Fibre Channel-Frames innerhalb von

Layer 2 Ethernet-Frames verkapselt werden. Weitere Informationen finden Sie auf www.fcoe.com

.

Fibre Channel over Ethernet

Siehe FCoE

.

FTP

Dateiübertragungsprotokoll

Standard-Netzwerkprotokoll für die

Übertragung von Dateien zwischen zwei

Hosts über ein TCP-basiertes Netzwerk, wie beispielsweise das Internet. FTP ist für das bandexterne Laden der Firmware erforderlich, das schneller ist als bandinternes Laden.

290 AH0054602-01 F

Benutzerhandbuch—Converged Network Adapters

41

xxx

-Serie

Gerät

Ziel , in der Regel ein Plattenlaufwerk.

Hardware, wie z. B. Festplattenlaufwerke,

Bandlaufwerk, Drucker oder Tastatur, die auf einem verbundenen System installiert ist. In Fibre Channel ein

Zielgerät

.

HII

Human Interface-Infrastruktur.

Spezifikation (Teil von UEFI 2.1) zur

Verwaltung von Benutzereingaben, lokalisierten Zeichenketten, Schriftarten und Masken, die es OEM-Herstellern ermöglicht, grafische Schnittstellen für die

Preboot-Konfiguration zu entwickeln.

Human Interface-Infrastruktur

Siehe

HII .

IEEE

Institute of Electrical and Electronics

Engineers (Weltweiter Berufsverband von

Ingenieuren aus den Bereichen

Elektrotechnik und Informationstechnik,

IEEE) Internationale, gemeinnützige

Organisation für die Weiterentwicklung der

Technologie im Bereich Elektrizität.

Internet Small Computer

System-Schnittstelle

Siehe

iSCSI .

Internet Wide Area RDMA-Protokoll

Siehe

iWARP

.

Internetprotokoll

Siehe

IP

.

IP

Internetprotokoll Ein Verfahren, bei dem

Daten über das Internet von einem

Computer zu einem anderen gesendet werden. IP definiert das Format der

Pakete, auch als

Datagramme

bezeichnet, und das Adressierungsschema.

IQN

Qualifizierter iSCSI-Name. iSCSI-Knotenname auf Basis des

Initiator-Herstellers und einem eindeutigen

Gerätenamen-Abschnitt.

iSCSI

Internet Small Computer

System-Schnittstelle. Protokoll, bei dem

Daten in IP-Pakete eingekapselt werden, um sie über Ethernet-Verbindungen zu versenden.

iWARP

Internet Wide Area

RDMA

-Protokoll Ein

Netzwerkprotokoll, das RDMA für eine effiziente Datenübertragung über

IP-Netzwerke implementiert. iWARP wurde für mehrere Umgebungen konzipiert, darunter LANs,

Speichernetzwerke,

Rechenzentrumsnetzwerke und WANs.

Jumbo-Frames

Große IP-Frames, die in

Hochleistungsnetzwerken verwendet werden, um die Leistung über große

Distanzen zu verbessern. Jumbo-Frames bedeutet in der Regel 9.000 Bytes pro

Gigabit Ethernet , es kann sich jedoch auf

alles beziehen, was über IP

MTU

übertragen wird, also 1.500 Bytes auf einem Ethernet.

Large Send-Offload

Siehe LSO

.

291 AH0054602-01 F

Benutzerhandbuch—Converged Network Adapters

41

xxx

-Serie

LLDP

Ein lieferantenunabhängiges

Schicht-2-Protokoll, mit dem ein

Netzwerkgerät seine Identität und

Funktionen auf dem lokalen Netzwerk bekannt machen kann. Dieses Protokoll ersetzt Protokolle wie das Cisco Discovery

Protocol, das Extreme Discovery Protocol und das Nortel Discovery Protocol (auch bekannt als SONMP).

Die mit LLDP erfassten Informationen werden im Gerät gespeichert und können

über SNMP abgefragt werden. Die

Topologie eines LLDP-aktivierten

Netzwerks kann durch das Durchforsten der Hosts und die Abfrage dieser

Datenbank ermittelt werden.

LSO

Large Send-Offload. Funktion des

LSO-Ethernet-Adapters, mit dem der

TCP\IP-Netzwerkstapel eine große

TCP-Nachricht (mit bis zu 64 KB) aufbauen kann, bevor die Nachricht an den Adapter gesendet wird. Die

Adapter-Hardware segmentiert die

Nachricht in kleinere Datenpakete

(Frames), die über das kabelgebundene

Netzwerk gesendet werden können: bis zu

1.500 Bytes bei

Standard-Ethernet-Frames und bis zu

9.000 Bytes bei Jumbo-Ethernet-Frames.

Mit diesem Segmentierungsprozess wird die Server-CPU von der Last befreit, große

TCP-Nachrichten in kleinere Pakete segmentieren zu müssen, die in die unterstützte Frame-Größe passen.

Maximale Übertragungseinheit

Siehe

MTU

.

MSI, MSI-X

Per Meldung angeforderte Interrupts Eine von zwei PCI-definierten Erweiterungen für die Unterstützung von per Meldung angeforderten Interrupts (Message

Signaled Interrupts) mit PCI ab Version 2.2 und PCI Express. MSIs sind eine alternative Methode zum Generieren von

Interrupts durch spezielle Meldungen, welche die Emulation einer Pin-Aktivierung oder -Deaktivierung ermöglichen.

Mit MSI-X (definiert in PCI 3.0) kann ein

Gerät eine beliebige Anzahl an Interrupts

(zwischen 1 und 2.048 Interrupts) und jedem Interrupt separate Daten- und

Adressregister zuweisen. Optionale

Merkmale und Funktionen in MSI

(64-Bit-Adressierung und

Interrupt-Maskierung) sind bei MSI-X obligatorisch.

MTU

Maximale Übertragungseinheit. Bezieht sich auf die Größe (in Byte) des größten

Pakets (IP-Datagramm), das eine bestimmte Schicht eines

Kommunikationsprotokolls übertragen kann.

Netzwerkschnittstellenkarte

Siehe NIC .

NIC

Netzwerkschnittstellenkarte. Installierte

Computerkarte zur Aktivierung einer bestimmten Netzwerkverbindung.

nicht-flüchtiger Direktzugriffsspeicher

(RAM)

Siehe NVRAM .

Nicht-flüchtiger Express-Speicher

Siehe NVMe

.

292 AH0054602-01 F

Benutzerhandbuch—Converged Network Adapters

41

xxx

-Serie

NIC-Partitionierung

Siehe

NPAR

.

NPAR

NIC

Partitionierung. Die Aufteilung eines einzelnen NIC-Ports in mehrere physische

Funktionen oder Partitionen, wobei jeder davon eine benutzerkonfigurierbare

Bandbreite und Personalität

(Schnittstellentyp) zugewiesen wird. Zu den Personalitäten gehören:

NIC

, FCoE

und iSCSI

.

NVMe

Eine Speicherzugriffsmethode, die für

Festkörperlaufwerke (SSDs) entwickelt wurde.

NVRAM

Nicht-flüchtiger Direktzugriffsspeicher

(RAM). Ein Speichertyp, der Daten empfängt (Konfigurationseinstellungen), selbst wenn die Stromversorgung unterbrochen wird. Sie können die

NVRAM-Einstellungen manuell konfigurieren oder sie aus einer Datei wiederherstellen.

OFED™

OpenFabrics Enterprise Distribution. Eine

Open-Source-Software für RDMA und

Kernel-Bypass-Anwendungen.

PCI Express (PCIe)

E/A-Standard der 3. Generation, der eine verbesserte Leistung des

Ethernet-Netzwerks ermöglicht, die über die der älteren Peripheral Component

Interconnect (PCI) hinausgeht, sowie

PCI-erweiterte (PCI-X)-Desktop- und

Serversteckplätze bietet.

PCI™

Peripheriekomponentenschnittstelle (PCI).

Eine lokale 32-Bit-Busspezifikation, die von Intel

®

eingeführt wurde.

Per Meldung angeforderte Interrupts

Siehe MSI, MSI-X

.

PF

Physische Funktion.

QoS

Servicequalität Bezieht sich auf die angewandten Methoden zur Vermeidung von Engpässen und Sicherstellung der

Geschäftskontinuität bei der Übertragung von Daten über virtuelle Ports durch

Vornahme von Prioritätseinstellungen und

Bandbreitenzuordnungen.

Qualifizierter iSCSI-Name

Siehe IQN .

Quality-of-Service

Siehe QoS

.

RDMA

Remote-Direktzugriffspeicher.

Remote-Direktzugriffspeicher; die

Fähigkeit eines Knotens, über ein

Netzwerk direkt in den Speicher eines anderen Knotens zu schreiben (mit

Adress- und Größensemantik). Diese

Fähigkeit ist ein wichtiges Merkmal von

VI

-Netzwerken.

RDMA over Converged Ethernet (RoCE)

Siehe RoCE

.

Remote-Direktzugriffspeicher

Siehe RDMA .

293 AH0054602-01 F

Benutzerhandbuch—Converged Network Adapters

41

xxx

-Serie

RISC

Computer mit reduziertem Befehlssatz.

Ein Computer-Mikroprozessor, der weniger Typen von

Computeranweisungen durchführt und dadurch schneller arbeitet.

RoCE

RDMA over Converged Ethernet.

Netzwerkprotokoll, das den

Remote-Direktzugriffspeicher (RDMA)

über ein konvergentes oder nicht konvergentes Ethernet-Netzwerk ermöglicht. RoCE ist ein

Verbindungsschichtprotokoll, das die

Kommunikation zwischen zwei beliebigen

Hosts in derselben Ethernet Broadcast

Domain ermöglicht.

Schicht 2

Bezieht sich auf die Sicherungsschicht des

Mehrschicht-Kommunikationsmodells

„Open Systems Interconnection“ (OSI).

Bei der Sicherungsschicht werden die

Daten über die physischen Verknüpfungen in einem Netzwerk gelenkt, in dem ein

Switch Datennachrichten auf Ebene von

Schicht 2 mithilfe der Ziel-MAC-Adresse umleitet, um das Ziel der Nachricht zu bestimmen.

Schnittstelle für erweiterte Konfiguration und Stromversorgung

Siehe

ACPI

.

SCSI

Small Computer System-Schnittstelle.

Eine Hochgeschwindigkeitsschnittstelle, die zum Anschließen von Geräten an einen Computer verwendet wird, darunter

Festplattenlaufwerke, CD-Laufwerk,

Drucker und Scanner. Über SCSI können viele Geräte über einen Controller angeschlossen werden. Auf jedes Gerät wird über eine individuelle ID auf dem

SCSI-Controller-Bus zugegriffen.

SerDes

Serialisierungsprogramm/Deserialisierung sprogramm. Ein Paar aus funktionalen

Blöcken, das üblicherweise für die

Hochgeschwindigkeits-Datenübertragung verwendet wird, um eine begrenzte

Eingabe/Ausgabe zu kompensieren. Diese

Blöcke konvertieren Daten zwischen seriellen Daten und parallelen

Schnittstellen in jede Richtung.

Serialisierungsprogramm/Deserialisierung sprogramm

Siehe SerDes

.

Single Root Input/Output-Virtualisierung

Siehe SR-IOV .

Small Computer System-Schnittstelle

Siehe SCSI .

SR-IOV

Single Root Input/Output-Virtualisierung

Eine Spezifikation von PCI SIG, mit der ein einzelnes PCIe-Gerät als mehrere, separate physische PCIe-Geräte angezeigt werden kann. SR-IOV ermöglicht die Isolation von

PCIe-Ressourcen zum Zwecke der

Leistung, Interoperabilität und

Verwaltbarkeit.

294 AH0054602-01 F

Benutzerhandbuch—Converged Network Adapters

41

xxx

-Serie

TCP

Übertragungssteuerungsprotokoll. Ein

Regelsatz zum Senden von Daten in

Paketen über das Internetprotokoll.

TCP/IP

Übertragungssteuerungsprotokoll/Internet protokoll. Basiskommunikationssprache des Internets.

TLV

Typ-Länge-Wert. Optionale Informationen, die als ein Element innerhalb eines

Protokolls kodiert werden können. Die

Typen- und Längenfelder sind in der

Größe fest definiert (typischerweise 1 bis

4 Bytes), während das Wertefeld mit einer variablen Größe definiert ist. Die folgenden Felder werden wie folgt verwendet:

 Typ: Ein numerischer Code, der die Art des Felds angibt, den dieser Teil der

Nachricht darstellt.

 Länge: Die Größe des Wertefelds

(typischerweise angegeben in Bytes).

 Wert: Byte-Satz mit variabler Größe, der Daten für diesen Teil der Nachricht enthält.

Transmission Control Protocol

Siehe

TCP .

Treiber

Software, die als Schnittstelle zwischen dem Dateisystem und dem physischen

Datenspeichergerät oder Netzwerkmedien fungiert.

Typ-Länge-Wert

Siehe

TLV .

Übertragungssteuerungsprotokoll/Internet protokoll

Siehe

TCP/IP .

UDP

User Datagram-Protokoll Ein verbindungsloses Übertragungsprotokoll ohne Garantie, dass das Paket in der gewünschten Reihenfolge oder überhaupt geliefert wird. Es arbeitet direkt oberhalb des IP.

UEFI

Einheitliche erweiterbare

Firmware-Schnittstelle. Spezifikation, die eine Schnittstelle beschreibt, mit deren

Hilfe die Steuerung über das System in der

Preboot-Umgebung (d. h. nachdem das

System eingeschaltet, das Betriebssystem jedoch noch nicht gestartet wurde) an ein

Betriebssystem wie Windows oder Linux

übergeben werden kann. UEFI stellt während des Starts eine Schnittstelle zwischen Betriebssystem und

Plattform-Firmware bereit und unterstützt einen architekturunabhängigen

Mechanismus für das Initialisieren von

Add-In-Karten.

User Datagram Protocol

Siehe UDP

.

Verbesserte Übertragungsauswahl

Siehe ETS

.

Verbindungsschichterkennungsprotokoll

(LLDP)

Siehe LLDP

.

VF

Virtuelle Funktion.

VI

Virtuelle Schnittstelle. Eine Initiative für

Remote-Direktzugriffspeicher für Fibre

Channel und andere

Kommunikationsprotokolle. Wird für

Cluster-Bildung und Messaging verwendet.

295 AH0054602-01 F

Benutzerhandbuch—Converged Network Adapters

41

xxx

-Serie

Virtuelle Maschine

Siehe

VM

.

Virtuelle Schnittstelle

Siehe

VI

.

Virtuelles logisches Netzwerk

Siehe

VLAN .

VLAN

Virtuelles logisches Netzwerk (LAN). Eine

Gruppe mit Hosts mit einem gemeinsamen

Anforderungssatz, die kommunizieren, als wenn sie über das gleiche Datenkabel verbunden wären, unabhängig von der jeweiligen physischen Position. Obwohl ein VLAN dieselben Attribute wie ein physisches LAN aufweist, können

Endstationen gruppiert werden, selbst wenn sie nicht auf dem gleichen

LAN-Segment vorhanden sind. VLANs ermöglichen die Netzwerkneukonfiguration

über Software, anstatt Geräte physisch neu positionieren zu müssen.

VM

Virtuelle Maschine. Eine

Software-Implementierung einer Maschine

(eines Computers), die Programme wie eine reale Maschine ausführt.

Wake on LAN

Siehe

WoL

.

WoL

Wake-on-LAN. Ein Ethernet-basierter

Computer-Netzwerkstandard, mit dem ein

Computer über eine Netzwerknachricht per remote eingeschaltet oder reaktiviert werden kann. Diese Nachricht wird i.d.R.

über ein einfaches Programm gesendet, die von einem anderen Computer innerhalb des Netzwerks versendet wird.

Ziel

Der Speichergeräteendpunkt einer

SCSI-Sitzung. Die Initiatoren fordern

Daten von Zielen an. Ziele sind in der

Regel Festplattenlaufwerke,

Bandlaufwerke oder sonstige

Datenträgergeräte. In der Regel ist ein

SCSI-Peripheriegerät das Ziel, jedoch kann in manchen Fällen auch der Adapter ein Ziel sein. Ein Ziel kann mehrere LUNs enthalten.

Ein Ziel ist ein Gerät, das auf eine

Anforderung durch einen Initiator (das

Host-System) reagiert. Peripheriegeräte sind Ziele, für manche Befehle (z. B. den

SCSI-Befehl „COPY“ (Kopieren) kann das

Peripheriegerät jedoch auch als Initiator agieren.

296 AH0054602-01 F

Firmenzentrale

Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100

Internationale Niederlassungen

Großbritannien | Irland | Deutschland | Frankreich | Indien | Japan | China | Hongkong | Singapur | Taiwan | Israel

Copyright © 2017, 2018 Cavium, Inc. Weltweit alle Rechte vorbehalten. QLogic Corporation ist eine hundertprozentige Tochtergesellschaft im Eigentum von Cavium, Inc. Cavium, FastLinQ,

QConvergeConsole, QLogic und SmartAN sind eingetragene Markenzeichen von Cavium, Inc. Alle anderen Marken oder Produktnamen sind Marken oder eingetragene Markenzeichen ihrer jeweiligen

Eigentümer.

Dieses Dokument dient lediglich zu Informationszwecken und kann unter Umständen Fehler enthalten. Cavium behält sich das Recht vor, ohne vorherige Ankündigung Änderungen an diesem Dokument, am Produktdesign oder an den technischen Daten vorzunehmen. Cavium gewährt keinerlei ausdrückliche oder stillschweigende Garantien und garantiert nicht, dass die in diesem Dokument beschriebenen

Ergebnisse oder Leistungen tatsächlich von Ihnen erzielt werden. Sämtliche Aussagen zur künftigen Ausrichtung und zu Absichten von Cavium können ohne Vorankündigung geändert werden und beschreiben lediglich Zielsetzungen und Vorhaben.

advertisement

Was this manual useful for you? Yes No
Thank you for your participation!

* Your assessment is very important for improving the workof artificial intelligence, which forms the content of this project

Related manuals

Download PDF

advertisement

Table of contents