Virtualization Guide - Fedora Documentation

Virtualization Guide - Fedora Documentation
Fedora 12
Virtualization Guide
La guida definitiva per la virtualizzazione su Fedora
Christoph Curran
Virtualization Guide
Fedora 12 Virtualization Guide
La guida definitiva per la virtualizzazione su Fedora
Edizione 1
Autore
Christoph Curran
ccurran@redhat.com
Copyright © 2009 Red Hat, Inc.
The text of and illustrations in this document are licensed by Red Hat under a Creative Commons
Attribution–Share Alike 3.0 Unported license ("CC-BY-SA"). An explanation of CC-BY-SA is available
at http://creativecommons.org/licenses/by-sa/3.0/. The original authors of this document, and Red Hat,
designate the Fedora Project as the "Attribution Party" for purposes of CC-BY-SA. In accordance with
CC-BY-SA, if you distribute this document or an adaptation of it, you must provide the URL for the
original version.
Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert,
Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.
Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, MetaMatrix, Fedora, the Infinity
Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.
For guidelines on the permitted uses of the Fedora trademarks, refer to https://fedoraproject.org/wiki/
Legal:Trademark_guidelines.
Linux® is the registered trademark of Linus Torvalds in the United States and other countries.
Java® is a registered trademark of Oracle and/or its affiliates.
XFS® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States
and/or other countries.
All other trademarks are the property of their respective owners.
La Fedora 12 Virtualization Guide contiene le informazioni relative all'installazione, configurazione,
amministrazione, i consigli e le tecnologie per il troubleshooting della virtualizzazione usati con Fedora
12.
Prefazione
vii
1. Informazioni su questo libro ........................................................................................... vii
2. Convenzioni del documento ........................................................................................... vii
2.1. Convenzioni tipografiche ..................................................................................... vii
2.2. Convenzioni del documento ................................................................................. ix
2.3. Note ed avvertimenti ............................................................................................ ix
3. Inviateci i vostri commenti! .............................................................................................. x
I. Installation
1
1. Installazione dei pacchetti di virtualizzazione
3
1.1. Installazione di KVM con una nuova installazione di Fedora .................................... 3
1.2. Installazione dei pacchetti KVM su di un sistema Fedora esistente .......................... 5
2. Panoramica installazione del guest virtualizzato
7
2.1. Creazione di un guest con virt-install ..................................................................... 7
2.2. Creazione di un guest con virt-manager ................................................................ 8
2.3. Installazione dei guest con PXE .......................................................................... 16
3. Procedure per l'installazione del sistema operativo guest
23
3.1. Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato ............... 23
3.2. Installazione di Red Hat Enterprise Linux 5 come guest completamente
virtualizzato ............................................................................................................... 65
3.3. Installazione di Windows XP come guest completamente virtualizzato .................... 74
3.4. Installazione di Windows Server 2003 come guest completamente virtualizzato....... 91
3.5. Installazione di Windows Server 2008 come guest completamente virtualizzato....... 94
II. Configuration
107
4. Dispositivi a blocchi virtualizzati
4.1. Creazione di un controllore del dischetto floppy virtualizzato ................................
4.2. Come aggiungere dispositivi di storage sui guest ................................................
4.3. Configurazione memoria persistente ..................................................................
4.4. Aggiungere un dispositivo DVD o CD-ROM virtualizzato ad un guest ....................
109
109
110
113
116
5. Storge condiviso e virtualizzazione
5.1. Utilizzo di iSCSI per l'archiviazione dei guest .....................................................
5.2. Utilizzo di NFS per l'archiviazione dei guest .......................................................
5.3. Utilizzo di GFS2 per l'archiviazione dei guest .....................................................
117
117
117
117
6. Pratiche consigliate per il server
119
7. Sicurezza per la virtualizzazione
121
7.1. SELinux e virtualizzazione ................................................................................ 121
7.2. Considerazioni su SELinux ................................................................................ 122
8. Configurazione di rete
125
8.1. Network address translation (NAT) con libvirt ..................................................... 125
8.2. Bridged networking con libvirt ............................................................................ 126
9. Driver para-virtualizzati KVM
131
9.1. Installazione dei driver paravirtualizzati Windows di KVM .................................... 131
III. Administration
141
iii
Virtualization Guide
10. Gestione dei guest utilizzando xend
143
11. Gestione dell'ora del guest KVM
145
12. Migrazione Live KVM
12.1. Requisiti per una migrazione live .....................................................................
12.2. Esempio di storage condiviso: NFS per una semplice migrazione .......................
12.3. Migrazione KVM live con virsh .........................................................................
12.4. Migrazione con virt-manager ...........................................................................
149
149
150
151
152
13. Gestione remota dei guest virtualizzati
13.1. Gestione remota con SSH ...............................................................................
13.2. Gestione remota attraverso TLS e SSL ............................................................
13.3. Modalità di trasporto .......................................................................................
163
163
164
165
IV. Virtualization Reference Guide
14. Strumenti per la virtualizzazione
173
15. Gestione dei guest con virsh
175
16. Gestione dei guest con Virtual Machine Manager (virt-manager)
16.1. La finestra apri collegamento ...........................................................................
16.2. Finestra principale del Virtual Machine Manager ...............................................
16.3. Finestra delle informazioni del Virtual Machine Manager ....................................
16.4. Console grafica della macchina virtuale ............................................................
16.5. Starting virt-manager .......................................................................................
16.6. Ripristino di una macchina salvata ...................................................................
16.7. Visualizzazione delle informazioni sul guest ......................................................
16.8. Monitoraggio dello stato ..................................................................................
16.9. Visualizzazione degli identificatori del guest ......................................................
16.10. Visualizzazione dello stato del guest ..............................................................
16.11. Visualizzazione delle CPU virtuali ...................................................................
16.12. Visualizzazione utilizzo della CPU ..................................................................
16.13. Visualizzazione utilizzo della memoria ............................................................
16.14. Gestione di una rete virtuale ..........................................................................
16.15. Creazione di una rete virtuale ........................................................................
185
185
186
187
188
189
190
191
196
198
200
201
202
203
204
205
V. Tips and Tricks
17. Suggerimenti e trucchi
17.1. Avvio automatico dei guest ..............................................................................
17.2. Come smistarsi tra l'hypervisor KVM e Xen ......................................................
17.2.1. Da Xen a KVM ....................................................................................
17.2.2. Da KVM a Xen ....................................................................................
17.3. Utilizzo di qemu-img .......................................................................................
17.4. Processo di overcommit con KVM ...................................................................
17.5. Modifica di /etc/grub.conf .................................................................................
17.6. Verifica delle estensioni per la virtualizzazione ..................................................
17.7. Identificare il tipo di guest e l'implementazione ..................................................
17.8. Come generare un nuovo indirizzo MAC unico .................................................
17.9. Very Secure ftpd ..........................................................................................
17.10. Come configurare la persistenza LUN ............................................................
17.11. Come disabilitare lo SMART disk monitoring per i guest ..................................
iv
171
215
217
217
217
217
219
220
222
223
224
225
226
227
228
229
17.12. Come clonare i file di configurazione del guest ............................................... 229
17.13. Duplicazione di un guest esistente e dei suoi file di configurazione ................... 230
18. Creazione script libvirt personalizzati
231
18.1. Come utilizzare i file di configurazione XML con virsh ........................................ 231
VI. Troubleshooting
233
19. Troubleshooting
235
19.1. Errori del dispositivo loop ................................................................................ 235
19.2. Come abilitare le estensioni hardware per la virtualizzazione VT e AMD-V nel
BIOS ...................................................................................................................... 235
A. Risorse aggiuntive
237
A.1. Risorse online .......................................................................................................... 237
A.2. Documentazione installata ........................................................................................ 237
B. Cronologia
239
C. Colophon
241
Glossario
243
v
vi
Prefazione
Questa guida è la Fedora 12 Virtualization Guide. Essa contiene le informazioni necessarie per
l'utilizzo e la gestione della virtualizzazione su Fedora 12.
1. Informazioni su questo libro
Questo libro è diviso in 7 sezioni:
• Requisiti del sistema
• Installation
• Configuration
• Administration
• Riferimenti
• Tips and Tricks
• Troubleshooting
2. Convenzioni del documento
Questo manuale utilizza numerose convenzioni per evidenziare parole e frasi, ponendo attenzione su
informazioni specifiche.
1
Nelle edizioni PDF e cartacea questo manuale utilizza caratteri presenti nel set Font Liberation . Il set
Font Liberation viene anche utilizzato nelle edizioni HTML se il set stesso è stato installato sul vostro
sistema. In caso contrario, verranno mostrati caratteri alternativi ma equivalenti. Da notare: Red Hat
Enterprise Linux 5 e versioni più recenti, includono per default il set Font Liberation.
2.1. Convenzioni tipografiche
Vengono utilizzate quattro convenzioni tipografiche per richiamare l'attenzione su parole e frasi
specifiche. Queste convenzioni, e le circostanze alle quali vengono applicate, sono le seguenti.
Neretto monospazio
Usato per evidenziare l'input del sistema, incluso i comandi della shell, i nomi dei file ed i percorsi.
Utilizzato anche per evidenziare tasti e combinazione di tasti. Per esempio:
Per visualizzare i contenuti del file my_next_bestselling_novel
nella vostra directory di lavoro corrente, inserire il comando cat
my_next_bestselling_novel al prompt della shell e premere Invio per eseguire
il comando.
Quanto sopra riportato include il nome del file, un comando della shell ed un tasto, il tutto riportato in
neretto monospazio e distinguibile grazie al contesto.
Le combinazioni di tasti possono essere distinte dai tasti tramite il trattino che collega ogni parte della
combinazione. Per esempio:
1
https://fedorahosted.org/liberation-fonts/
vii
Prefazione
Premere Invio per eseguire il comando.
Premere Ctrl+Alt+F1 per smistarsi sul primo virtual terminal. Premere
Ctrl+Alt+F7 per ritornare alla sessione X-Windows.
Il primo paragrafo evidenzia il tasto specifico singolo da premere. Il secondo riporta due combinazioni
di tasti, (ognuno dei quali è un set di tre tasti premuti contemporaneamente).
Se si discute del codice sorgente, i nomi della classe, i metodi, le funzioni i nomi della variabile ed i
valori ritornati indicati all'interno di un paragrafo, essi verranno indicati come sopra, e cioè in neretto
monospazio. Per esempio:
Le classi relative ad un file includono filesystem per file system, file per file, e
dir per directory. Ogni classe possiede il proprio set associato di permessi.
Proportional Bold
Ciò denota le parole e le frasi incontrate su di un sistema, incluso i nomi delle applicazioni; il testo
delle caselle di dialogo; i pulsanti etichettati; le caselle e le etichette per pulsanti di selezione, titoli del
menu e dei sottomenu. Per esempio:
Selezionare Sistema → Preferenze → Mouse dalla barra del menu principale per
lanciare Preferenze del Mouse. Nella scheda Pulsanti, fate clic sulla casella di
dialogo mouse per mancini, e successivamente fate clic su Chiudi per cambiare il
pulsante primario del mouse da sinistra a destra (rendendo così il mouse idoneo per
un utilizzo con la mano sinistra).
Per inserire un carattere speciale in un file gedit, selezionare Applicazioni →
Accessori → Mappa carattere dalla barra menu principale. Successivamente,
selezionare Cerca → Trova… dalla barra del menu Mappa carattere, inserire il nome
del carattere nel campo Cerca e cliccare Successivo. Il carattere ricercato verrà
evidenziato nella Tabella caratteri. Fare un doppio clic sul carattere evidenziato per
posizionarlo nel campo Testo da copiare, e successivamente fare clic sul pulsante
Copia. Ritornare ora al documento e selezionare Modifica → Incolla dalla barra del
menu di gedit.
Il testo sopra riportato include i nomi delle applicazioni; nomi ed oggetti del menu per l'intero sistema;
nomi del menu specifici alle applicazioni; e pulsanti e testo trovati all'interno di una interfaccia GUI,
tutti presentati in neretto proporzionale e distinguibili dal contesto.
Corsivo neretto monospazio o Corsivo neretto proporzionale
Sia se si tratta di neretto monospazio o neretto proporzionale, l'aggiunta del carattere corsivo indica un
testo variabile o sostituibile . Il carattere corsivo denota un testo che non viene inserito letteralmente, o
visualizzato che varia a seconda delle circostanze. Per esempio:
Per collegarsi ad una macchina remota utilizzando ssh, digitare ssh
username@domain.name al prompt della shell. Se la macchina remota è
example.com ed il nome utente sulla macchina interessata è john, digitare ssh
john@example.com.
Il comando mount -o remount file-system rimonta il file system indicato. Per
esempio, per rimontare il file system /home, il comando è mount -o remount /
home.
viii
Convenzioni del documento
Per visualizzare la versione di un pacchetto attualmente installato, utilizzare il
comando rpm -q package. Esso ritornerà il seguente risultato: packageversion-release.
Da notare la parola in Corsivo neretto — nome utente, domain.name, file-system, pacchetto, versione
e release. Ogni parola racchiude il testo da voi inserito durante l'emissione di un comando o per il
testo mostrato dal sistema.
Oltre all'utilizzo normale per la presentazione di un titolo, il carattere Corsivo denota il primo utilizzo di
un termine nuovo ed importante. Per esempio:
Publican è un sistema di pubblicazione per DocBook.
2.2. Convenzioni del documento
Gli elenchi originati dal codice sorgente e l'output del terminale vengono evidenziati rispetto al testo
circostante.
L'output inviato ad un terminale è impostato su tondo monospazio e così presentato:
books
books_tests
Desktop
Desktop1
documentation
downloads
drafts
images
mss
notes
photos
scripts
stuff
svgs
svn
Gli elenchi del codice sorgente sono impostati in tondo monospazio ma vengono presentati ed
evidenziati nel modo seguente:
package org.jboss.book.jca.ex1;
import javax.naming.InitialContext;
public class ExClient
{
public static void main(String args[])
throws Exception
{
InitialContext iniCtx = new InitialContext();
Object
ref
= iniCtx.lookup("EchoBean");
EchoHome
home
= (EchoHome) ref;
Echo
echo
= home.create();
System.out.println("Created Echo");
System.out.println("Echo.echo('Hello') = " + echo.echo("Hello"));
}
}
2.3. Note ed avvertimenti
E per finire, tre stili vengono usati per richiamare l'attenzione su informazioni che in caso contrario
potrebbero essere ignorate.
ix
Prefazione
Nota Bene
Una nota è un suggerimento o un approccio alternativo per il compito da svolgere. Non
dovrebbe verificarsi alcuna conseguenza negativa se la nota viene ignorata, ma al tempo
stesso potreste non usufruire di qualche trucco in grado di facilitarvi il compito.
Importante
Important boxes detail things that are easily missed: configuration changes that only
apply to the current session, or services that need restarting before an update will apply.
Ignoring a box labeled 'Important' won't cause data loss but may cause irritation and
frustration.
Avvertenza
Un Avvertimento non dovrebbe essere ignorato. Se ignorato, potrebbe verificarsi una
perdita di dati.
3. Inviateci i vostri commenti!
Se individuate degli errori di battitura in questo manuale, o se pensate di poter contribuire al
suo miglioramento, contattateci subito! Inviate i vostri suggerimenti tramite Bugzilla: http://
bugzilla.redhat.com/bugzilla/ sul componente Fedora Documentation.
Quando inviate un bug report, assicuratevi di indicare l'identificatore del manuale: virtualization-guide
Se inviate un suggerimento per contribuire al miglioramento della guida, cercate di essere il più
specifici possibile. Se avete individuato un errore, indicate il numero della sezione e alcune righe di
testo, in modo da agevolare la ricerca dell'errore.
x
Parte I. Installation
Argomenti relativi alla virtualizzazione
Questi capitoli descrivono le fasi necessarie per l'impostazione di un host e l'installazione di guest
virtualizzati con Fedora. È consigliato leggere attentamente i suddetti capitoli per poter eseguire una
installazione corretta di sistemi operativi del guest virtualizzato.
Capitolo 1.
Installazione dei pacchetti di
virtualizzazione
1.1. Installazione di KVM con una nuova installazione di
Fedora
Questa sezione affronta le fasi attraverso le quali è possibile installare gli strumenti di virtualizzazione
ed il pacchetto KVM come parte di una nuova installazione Fedora 12.
Hai bisogno di assistenza durante l'installazione?
The Fedora 12 Installation Guide (available from http://docs.fedoraproject.org) covers
installing Fedora 12 in detail.
1.
Iniziare una installazione interattiva di Fedora da un DVD, CD-ROM o PXE d'installazione di
Fedora 12.
2.
Completare le altre fasi fino a quella relativa alla selezione del pacchetto.
Selezionare il gruppo dei pacchetti per la Virtualizzazione e fare clic sul pulsante Personalizza
ora.
3
Capitolo 1. Installazione dei pacchetti di virtualizzazione
3.
Selezionare il gruppo di pacchetti KVM. Deselezionare il gruppo di pacchetti Virtualizzazione.
Così facendo verrà selezionato l'hypervisor KVM, virt-manager, libvirt e virt-viewer
per l'installazione.
4.
Personalizzare i pacchetti (se necessario)
Personalizzare il gruppo Virtualizzazione se sono necessari altri pacchetti per la virtualizzazione.
4
Installazione dei pacchetti KVM su di un sistema Fedora esistente
Premere Chiudi seguito da Successivo per continuare l'installazione.
Installazione dei pacchetti KVM con i file kickstart
Questa sezione descrive il metodo attraverso il quale usare i file kickstart per installare Fedora con
i pacchetti per l'hypervisor KVM. I file kickstart permettono installazioni automatizzate senza che
l'utente installi manualmente ogni sistema. Le fasi presenti in questa sezione vi aiuteranno a creare ed
utilizzare un file kickstart per l'installazione di Fedora con i pacchetti di virtualizzazione.
Nella sezione %packages del file kickstart aggiungere il seguente gruppo di pacchetti:
%packages
@kvm
More information on Kickstart files can be found on the Fedora Project website, http://
docs.fedoraproject.org, in the Fedora 12 Installation Guide.
1.2. Installazione dei pacchetti KVM su di un sistema
Fedora esistente
Questa sezione descrive le fasi necessarie per l'installazione dell'hypervisor KVM su di un Fedora 12
o versione più recente.
5
Capitolo 1. Installazione dei pacchetti di virtualizzazione
Installazione dell'hypervisor KVM con yum
Per usare la virtualizzazione su Fedora è necessario il pacchetto kvm. Il pacchetto kvm contiene il
modulo del kernel KVM il quale fornisce l'hypervisor KVM sul kernel di Linux predefinito.
To install the kvm package, run:
# yum install kvm
Ora installare i pacchetti aggiuntivi di gestione della virtualizzazione.
Pacchetti consigliati per la virtualizzazione:
python-virtinst
Fornisce il comando virt-install per la creazione delle macchine virtuali.
libvirt
libvirt è una libreria API per l'interazione con gli hypervisor. libvirt utilizza il framework di
virtualizzazione xm ed il tool della linea di comando virsh per gestire e controllare le macchine
virtuali.
libvirt-python
Il pacchetto libvirt-python contiene un modulo che permette alle applicazioni scritte nel linguaggio
Python di usare l'interfaccia fornita dall'API libvirt.
virt-manager
virt-manager conosciuto anche come Virtual Machine Manager, fornisce uno strumento
grafico per l'amministrazione delle macchine virtuali. Come API di gestione viene usata la libreria
libvirt.
Installazione di altri pacchetti consigliati per la virtualizzazione:
# yum install virt-manager libvirt libvirt-python python-virtinst
6
Capitolo 2.
Panoramica installazione del guest
virtualizzato
Dopo aver installato i pacchetti per la virtualizzazione sul sistema host sarà possibile creare i sistemi
operativi guest. Questo capitolo descrive i processi generali per l'installazione dei sistemi operativi
guest sulle macchine virtuali. Sarà possibile creare guest utilizzando il pulsante Nuovo in virtmanager, o usare l'interfaccia della linea di comando virt-install. Entrambi i metodi sono
presenti all'interno di questo capitolo.
Detailed installation instructions are available for specific versions of Fedora, other Linux distributions,
Solaris and Windows. Refer to Capitolo 3, Procedure per l'installazione del sistema operativo guest for
those procedures.
2.1. Creazione di un guest con virt-install
È possibile utilizzare virt-installper la creazione di guest virtualizzati dalla linea di comando.
virt-install può essere usato in modo interattivo o in uno script in modo da automatizzare la
creazione di macchine virtuali. Utilizzando virt-install con file kickstart, sarà possibile eseguire
una installazione delle macchine virtuali senza alcun intervento dell'utente.
Lo strumento virt-install fornisce un numero di opzioni passabili sulla linea di comando. Per
visualizzare un elenco completo di opzioni:
$ virt-install --help
La pagina man di virt-install documenta ogni opzione del comando e le variabili importanti.
qemu-img è un comando che può essere usato prima di virt-install per configurare le opzioni di
storage.
Una opzione importante è --vnc la quale è in grado di aprire una finestra grafica per l'installazione
del guest.
All'interno di questo esempio viene creato un guest Red Hat Enterprise Linux 3, rhel3support, da
un CD-ROM con networking virtuale e con una immagine del dispositivo a blocchi basato sul file di
5GB. In questo esempio viene usato un hypervisor KVM.
# virt-install --accelerate --hvm --connect qemu:///system \
--network network:default \
--name rhel3support --ram=756\
--file=/var/lib/libvirt/images/rhel3support.img \
--file-size=6 --vnc --cdrom=/dev/sr0
Esempio 2.1. Utilizzo di virt-install con KVM per la creazione di un guest Red Hat Enterprise Linux 3
# virt-install --name Fedora11 --ram 512 --file=/var/lib/libvirt/images/Fedora11.img \
--file-size=3 --vnc --cdrom=/var/lib/libvirt/images/Fedora11.iso
Esempio 2.2. Come usare virt-install per creare un guest di Fedora 11
7
Capitolo 2. Panoramica installazione del guest virtualizzato
2.2. Creazione di un guest con virt-manager
virt-manager conosciuto come Virtual Machine Manager, è uno strumento grafico per la creazione
e la gestione dei guest virtualizzati.
Procedura 2.1. Creazione di un guest virtualizzato con virt-manager
1. Per avviare virt-manager eseguire quanto riportato di seguito come utente root:
# virt-manager &
Il comando virt-manager apre una nuova interfaccia utente grafica. Diverse funzioni non
sono disponibili agli utenti senza privilegi root o senza aver configurato sudo, incluso il pulsante
Nuovo, senza di essi non sarà possibile creare un nuovo guest virtuale.
2.
Open the File -> Open Connection. The dialog box below appears. . Select a hypervisor and
click the Connect button:
3.
La finestra principale di virt-manager permetterà di creare una nuova macchina virtuale.
Selezionare Nuovo per creare un nuovo guest. Tale operazione aprirà il wizard mostrato nella
schermata:
8
Creazione di un guest con virt-manager
4.
La finestra Crea un nuovo sistema virtuale fornisce un sommario delle informazioni necessarie
per la creazione di una macchina virtuale:
9
Capitolo 2. Panoramica installazione del guest virtualizzato
Controllare le informazioni relative all'installazione e successivamente fare clic su Avanti.
5.
Verrà visualizzata la finestra Selezione metodo di virtualizzazione. Scegliere tra
Paravirtualizzato o Completamente virtualizzato.
Full virtualization richiede un sistema con processori Intel® VT o AMD-V. Se le estensioni di
virtualizzazione non sono presenti i pulsanti di selezione completamente virtualizzato o Abilita
accelerazione kernel/hardware non potranno essere selezionati. L'opzione Paravirtualizzato
non potrà essere selezionata se kernel-xen non è il kernel attualmente in esecuzione.
Se si è collegati ad un hypervisor KVM sarà disponibile solo full virtualization.
10
Creazione di un guest con virt-manager
Selezionare il tipo di virtualizzazione e successivamente fare clic su Successivo.
6.
Il prompt Localizzazione dispositivo di installazione richiederà il dispositivo di installazione
per il tipo di installazione selezionato. Questa schermata dipende dalle scelte fatte nella fase
precedente.
a.
L'installazione paravirtualizzata ha bisogno di un albero di installazione accessibile usando
uno dei seguenti protocolli di rete: HTTP, FTP o NFS. L'URL del dispositivo d'installazione
deve contenere un albero d'installazione di Fedora. Il suddetto albero viene ospitato usando
NFS, FTP o HTTP. I file ed i servizi di rete possono essere ospitati usando i servizi di rete
sull'host o un altro mirror.
Usando una immagine DVD o CD-ROM (etichettata come file .iso), montare l'immagine
CD-ROM e posizionare i file montati con uno dei protocolli indicati.
In alternativa, copiare l'albero d'installazione da un mirror di Fedora.
11
Capitolo 2. Panoramica installazione del guest virtualizzato
b.
12
L'installazione di un guest completamente virtualizzato ha bisogno di DVD, CD-ROM o
immagini avviabili di DVD o CD-ROM avviabili localmente (con un tipo di file .iso o .img).
Le installazioni Windows utilizzano file .iso o DVD e CD-ROM. Numerosi sistemi operativi
Linux o unix utilizzano un file .iso per l'installazione di un sistema di base prima di terminare
l'installazione con un albero basato sulla rete.
Creazione di un guest con virt-manager
Dopo aver selezionato il dispositivo d'installazione locale fare clic sul pulsante Avanti.
7.
The Assigning storage space window displays. Choose a disk partition, LUN or create a file
based image for the guest storage.
The convention for file based images in Fedora is that all file based guest images are in the
/var/lib/xen/images/ directory. Other directory locations for file based images are
prohibited by SELinux. If you run SELinux in enforcing mode, refer to Sezione 7.1, «SELinux e
virtualizzazione» for more information on installing guests.
Your guest storage image should be larger than the size of the installation, any additional
packages and applications, and the size of the guests swap file. The installation process will
choose the size of the guest's swap file based on size of the RAM allocated to the guest.
Allocate extra space if the guest needs additional space for applications or other data. For
example, web servers require additional space for log files.
13
Capitolo 2. Panoramica installazione del guest virtualizzato
Choose the appropriate size for the guest on your selected storage type and click the Forward
button.
Nota
È consigliato utilizzare la cartella predefinita, /var/lib/xen/images/, per
le immagini della macchina virtuale. Se si utilizza una posizione diversa (come
ad esempio /xen/images/) assicurarsi di aggiungerla alla propria politica di
SELinux e di rietichettarla prima di continuare con l'installazione (più avanti nella
documentazione si trovano le informazioni su come modificare la politica di SELinux)
8.
The Allocate memory and CPU window displays. Choose appropriate values for the virtualized
CPUs and RAM allocation. These values affect the host's and guest's performance.
I guest hanno bisogno di una memoria fisica (RAM) sufficiente per una esecuzione effettiva ed
efficiente. Selezionare un valore per la memoria in grado di soddisfare i requisiti delle applicazioni
e del sistema operativo guest. Numerosi sistemi operativi necessitano di almeno 512MB di RAM
per funzionare correttamente. Ricordare che i guest utilizzano la RAM fisica. L'esecuzione di un
numero molto elevato di guest o una memoria non sufficiente per il sistema host potrà causare
un uso molto elevato della memoria virtuale. Se la memoria virtuale è molto lenta anche le
14
Creazione di un guest con virt-manager
prestazioni e i tempi di risposta saranno molto lenti. Assicurarsi di assegnare memoria sufficiente
per tutti i guest e gli host in modo da operare correttamente.
Assign sufficient virtual CPUs for the virtualized guest. If the guest runs a multithreaded
application assign the number of virtualized CPUs it requires to run most efficiently. Do not
assign more virtual CPUs than there are physical processors (or hyper-threads) available on
the host system. It is possible to over allocate virtual processors, however, over allocating has
a significant, negative affect on guest and host performance due to processor context switching
overheads.
9.
Durante questa fase verrà presentata una schermata riassuntiva su tutte le informazioni relative
alla configurazione appena inserite. Ricontrollare le informazioni ed utilizzare il pulsante Indietro
per eseguire le opportune modifiche. Se si è soddisfatti dei dati inseriti fare clic sul pulsante Fine
ed il processo d'installazione avrà inizio.
15
Capitolo 2. Panoramica installazione del guest virtualizzato
A questo punto verrà visualizzata una finestra VNC la quale mostra l'avvio del processo
d'installazione del sistema operativo guest.
This concludes the general process for creating guests with virt-manager. Capitolo 3, Procedure
per l'installazione del sistema operativo guest contains step-by-step instructions to installing a variety
of common operating systems.
2.3. Installazione dei guest con PXE
Questa sezione contiene le fasi necessarie per l'installazione dei guest con PXE. L'installazione del
guest PXE necessita di un dispositivo di rete condiviso, conosciuto anche come bridge di rete. Le
procedure sotto riportate sono relative alla creazione di un bridge ed il suo utilizzo.
1.
Creazione di un nuovo bridge
a. Creare un nuovo file script di rete nella cartella /etc/sysconfig/network-scripts/. In
questo esempio viene creato un file chiamato ifcfg-installation il quale crea un bridge
installation
# cd /etc/sysconfig/network-scripts/
# vim ifcfg-installation
DEVICE=installation
TYPE=Bridge
16
Installazione dei guest con PXE
BOOTPROTO=dhcp
ONBOOT=yes
Warning
The line, TYPE=Bridge, is case-sensitive. It must have uppercase 'B' and lower
case 'ridge'.
b.
c.
Start the new bridge.
# ifup installation
Non sono state ancora aggiunte le interfacce al nuovo bridge. Utilizzare il comando brctl
show per visualizzare le informazioni sui bridge di rete presenti sul sistema.
# brctl show
bridge name
installation
virbr0
bridge id
8000.000000000000
8000.000000000000
STP enabled
no
yes
interfaces
Il bridge virbr0 è il bridge predefinito usato da libvirt per il Network Address Translation
(NAT) sul dispositivo ethernet predefinito.
2.
Aggiungere una interfaccia al nuovo bridge
Modificare il file di configurazione per l'interfaccia. Aggiungere il parametro BRIDGE al file di
configurazione con il nome del bridge creato nelle fasi precedenti.
# Intel Corporation Gigabit Network Connection
DEVICE=eth1
BRIDGE=installation
BOOTPROTO=dhcp
HWADDR=00:13:20:F7:6E:8E
ONBOOT=yes
Dopo aver modificato il file di configurazione riavviare il networking o eseguire il riavvio.
# service network restart
Verificare che l'interfaccia sia stata collegata con il comando brctl show:
# brctl show
bridge name
installation
virbr0
3.
bridge id
8000.001320f76e8e
8000.000000000000
STP enabled
no
yes
interfaces
eth1
Configurazione della sicurezza
Configure iptables to allow all traffic to be forwarded across the bridge.
17
Capitolo 2. Panoramica installazione del guest virtualizzato
# iptables -I FORWARD -m physdev --physdev-is-bridged -j ACCEPT
# service iptables save
# service iptables restart
Disable iptables on bridges
Alternatively, prevent bridged traffic from being processed by iptables rules. In /
etc/sysctl.conf append the following lines:
net.bridge.bridge-nf-call-ip6tables = 0
net.bridge.bridge-nf-call-iptables = 0
net.bridge.bridge-nf-call-arptables = 0
Reload the kernel parameters configured with sysctl
# sysctl -p /etc/sysctl.conf
4.
Riavviare libvirt prima dell'installazione
Restart the libvirt daemon.
# service libvirtd reload
Il bridge è stato configurato, ora sarà possibile iniziare l'installazione.
Installazione PXE con virt-install
Per virt-install aggiungere il parametro d'installazione --network=bridge:BRIDGENAME dove
installazione è il nome del proprio bridge. Per le installazioni PXE usare il parametro --pxe.
# virt-install --accelerate --hvm --connect qemu:///system \
--network=bridge:installation --pxe\
--name EL10 --ram=756 \
--vcpus=4
--os-type=linux --os-variant=rhel5
--file=/var/lib/libvirt/images/EL10.img \
Esempio 2.3. Installazione PXE con virt-install
Installazione PXE con virt-manager
The steps below are the steps that vary from the standard virt-manager installation procedures. For
the standard installations refer to Capitolo 3, Procedure per l'installazione del sistema operativo guest.
1.
18
Selezione di PXE
Selezionare PXE come metodo d'installazione.
Installazione dei guest con PXE
2.
Selezione del bridge
Selezionare Dispositivo fisico condiviso e successivamente il bridge creato nella fase
precedente.
19
Capitolo 2. Panoramica installazione del guest virtualizzato
3.
20
Inizio dell'installazione
L'installazione è pronta per essere iniziata.
Installazione dei guest con PXE
A tal proposito verrà inviata una richiesta DHCP, e se rilevato un server PXE valido, i processi per
l'installazione del guest verranno avviati.
21
22
Capitolo 3.
Procedure per l'installazione del
sistema operativo guest
This chapter covers how to install various guest operating systems in a virtualized environment on
Fedora. To understand the basic processes, refer to Capitolo 2, Panoramica installazione del guest
virtualizzato.
3.1. Installazione di Red Hat Enterprise Linux 5 come guest
para-virtualizzato
Questa sezione descrive come installare Red Hat Enterprise Linux 5 come guest paravirtualizzato.
Para-virtualization è più veloce e presenta tutti i vantaggi di un full virtualization. Para-virtualization
richiede un kernel supportato speciale, kernel-xen.
Nota importante sulla paravirtualization
Para-virtualization funziona solo con l'hypervisor Xen ma non con l'hypervisor KVM.
Prima di iniziare l'installazione assicurarsi di avere un accesso root.
Questo metodo installa Red Hat Enterprise Linux da un server remoto. Le informazioni relative
all'installazione presenti in questa sezione sono simili a quelle relative all'installazione minima tramite
CD-ROM live.
Create para-virtualized Red Hat Enterprise Linux 5 guests using virt-manager or virt-install. For
instructions on virt-manager, refer to the procedure in Sezione 2.2, «Creazione di un guest con
virt-manager».
Creare un guest paravirtualizzato con lo strumento virt-install basato sulla linea di comando.
L'opzione --vnc mostra l'installazione grafica. Il nome del guest all'interno dell'esempio è rhel5PV,
l'immagine del disco è rhel5PV.dsk ed il mirror locale dell'albero d'installazione di Red Hat
Enterprise Linux 5 è ftp://10.1.1.1/trees/CentOS5-B2-Server-i386/. Sostituire quei valori
con valori accurati per il sistema e la rete.
# virt-install -n rhel5PV -r 500 \
-f /var/lib/libvirt/images/rhel5PV.dsk -s 3 --vnc -p \
-l ftp://10.1.1.1/trees/CentOS5-B2-Server-i386/
Installazione automatizzata
Red Hat Enterprise Linux può essere installato senza l'interfaccia grafica o input manuale.
Usare i file kickstart per automatizzare il processo d'installazione.
L'utilizzo di questi metodi aprirà una finestra all'interno della quale verranno visualizzate le fasi iniziali
dell'avvio del proprio guest:
23
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Quando il guest ha completato il primo avvio, avrà inizio il processo d'installazione standard di Red
Hat Enterprise Linux. Per la maggior parte delle installazioni le risposte predefinite sono accettabili.
Procedura 3.1. Procedura per l'installazione del guest di Red Hat Enterprise Linux paravirtualizzato
1. Selezionare la lingua e successivamente OK.
24
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
2.
Selezionare il tipo di tastiera e OK.
25
Capitolo 3. Procedure per l'installazione del sistema operativo guest
3.
26
Assegnare l'indirizzo di rete del guest. È possibile scegliere tra DHCP (come di seguito indicato) o
inidirizzo IP statico:
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
4.
Se si è scelto DHCP il processo d'installazione cercherà di acquisire un indirizzo IP:
27
Capitolo 3. Procedure per l'installazione del sistema operativo guest
5.
Se invece si è scelto di usare un indirizzo IP statico per il proprio guest, la schermata successiva
richiederà di inserire le informazioni sulla configurazione del networking del guest:
a.
Inserire un indirizzo IP valido ed assicurarsi che l'indirizzo IP inserito sia in grado di
raggiungere il server con l'albero d'installazione.
b.
Inserire una maschera di rete valida, un gateway predefinito ed un indirizzo del server dei
nomi.
Selezionare la lingua e successivamente OK.
28
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
6.
Di seguito viene riportato un esempio di una configurazione di indirizzo IP statico:
29
Capitolo 3. Procedure per l'installazione del sistema operativo guest
7.
30
Il processo d'installazione ora recupera i file necessari dal server:
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Una volta completate le fasi iniziali verrà avviato il processo per l'installazione grafica.
31
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Se si stà installando una versione Beta o una distribuzione di release precedenti sarà necessario
confermare l'installazione del sistema operativo. Fare clic su Installa Comunque e successivamente
su OK:
32
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Procedura 3.2. Processo d'installazione grafico
1. Inserire un codice di registrazione valido. Se si è in possesso di una chiave di sottoscrizione RHN
valida inserira nel campo Installation Number:
33
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Note
Se la fase di registrazione viene saltata sarà possibile confermare le informazioni
relative all'account di rete di fedora dopo l'installazione con il comando
rhn_register. Il comando rhn_register richiede un accesso root.
# rhn_register
2.
34
L'installazione confermerà ora il desiderio di rimuovere i dati presenti sugli storage selezionati per
l'installazione:
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Fare clic su Si per continuare.
3.
Questa schermata permetterà di ricontrollare la configurazione dello storage e la disposizione
della partizione. È inoltre possibile selezionare la configurazione avanzata dello storage se si
desidera usare iSCSI come storage del guest:
35
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Selezionare le impostazioni desiderate e successivamente fare clic su Successivo.
4.
36
Confermare lo storage selezionato per l'installazione.
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Fare clic su Si per continuare.
5.
Configurare le impostazioni per il networking e dell'hostname. Le informazioni verranno popolate
con i dati inseriti nel processo d'installazione. Modificare le suddette impostazioni se necessario:
37
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Fare clic su OK per continuare.
6.
38
Selezionare il fuso orario appropriato per il proprio ambiente.
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
7.
Inserire la password di root per il guest.
39
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Fare clic su Successivo per continuare.
8.
40
Selezionare i pacchetti software da installare. A tal proposito selezionare Personalizza ora. È
necessario installare il pacchetto kernel-xen nella cartella del Sistema. Il pacchetto kernel-xen è
necessario per il para-virtualization.
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Fare clic su Successivo.
9.
Vengono calcolate le dipendenze ed i requisiti per lo spazio.
41
Capitolo 3. Procedure per l'installazione del sistema operativo guest
10. Una volta verificato i requisiti per lo spazio e le dipendenze per l'installazione fare clic su
Successivo per iniziare l'installazione.
42
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
11. Tutti i pacchetti software selezionati verranno installati automaticamente.
43
Capitolo 3. Procedure per l'installazione del sistema operativo guest
12. Una volta terminata l'installazione sarà necessario riavviare il proprio guest:
44
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
13. Il guest appena installato non si riavvierà, al contrario si arresterà..
45
Capitolo 3. Procedure per l'installazione del sistema operativo guest
14. Boot the guest. The guest's name was chosen when you used the virt-install in
Sezione 3.1, «Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato». If you
used the default example the name is rhel5PV.
Eseguire:
virsh reboot rhel5PV
Alternativamente aprire virt-manager, selezionare il nome del guest e fare clic su Apri,
successivamente selezionare Esegui.
A questo punto verrà visualizzata una finestra VNC nella quale sono presenti i processi d'avvio
del guest.
46
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
47
Capitolo 3. Procedure per l'installazione del sistema operativo guest
15. L'accensione del guest avvia la schermata di configurazione First Boot. Questa schermata
guiderà attraverso alcune fasi di configurazione di base per il proprio guest:
48
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
16. Leggere ed accettare la license agreement.
49
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Fare clic su Avanti sulle finestre del license agreement.
17. Configurare il firewall.
50
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Click Forward to continue.
•
Se si disabilita il firewall verrà richiesto di confermare la propria scelta. Fare clic su Si per
confermare e continuare.
51
Capitolo 3. Procedure per l'installazione del sistema operativo guest
18. Successivamente è la volta di SELinux. È fortemente consigliato eseguire SELinux in modalità
enforcing. È possibile eseguire SELinux sia in modalità permissive che completamente
disabilitato.
52
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Click Forward to continue.
•
Se si desidera disabilitare SELinux verrà visualizzato un messaggio d'avvertimento. Fare clic
su Si per disabilitare SELinux.
53
Capitolo 3. Procedure per l'installazione del sistema operativo guest
19. Se necessario abilitare kdump.
54
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Click Forward to continue.
20. Confermare che l'ora e la data siano stati impostati correttamente per il guest. Se si installa un
guest para-vitualizzato la data e l'ora dovrebbero essere in sincronizzazione con l'hypervisor.
55
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Click Forward to continue.
21. Impostare gli aggiornamenti software. Se si è in possesso di una sottoscrizione di rete di fedora
o se si desidera provarne una, utilizzare la schermata di seguito riportata per la registrazione del
nuovo guest in RHN.
56
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Click Forward to continue.
a.
Confermare le proprie scelte per RHN.
57
Capitolo 3. Procedure per l'installazione del sistema operativo guest
b.
58
Una volta terminata l'impostazione si potrebbe visualizzare una schermata aggiuntiva se non
si è scelto RHN. A questo punto non si riceveranno aggiornamenti software.
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
Fare clic sul pulsante Avanti.
22. Creare un account utente non-root. È consigliato creare un utente non-root per un utilizzo
normale e per una sicurezza più elevata. Inserire il nome utente, il nome e la password.
59
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Fare clic sul pulsante Avanti.
23. Se l'audio è necessario ed è stato rilevato un dispositivo audio, bisogna regolarlo. Completare il
processo e fare clic su Avanti.
60
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
24. Usare questa schermata se si desidera installare qualsiasi pacchetto software aggiuntivo da CD.
È consigliato non installare alcun software durante questa fase, ma aggiugerlo più avanti usando
yum. Fare clic su Fine.
61
Capitolo 3. Procedure per l'installazione del sistema operativo guest
25. Il guest configurerà qualsiasi impostazione modificata dall'utente e continuerà con il processo
d'avvio.
62
Installazione di Red Hat Enterprise Linux 5 come guest para-virtualizzato
26. Ora si è in grado di visualizzare la schermata di registrazione per il Red Hat Enterprise Linux 5.
Eseguire il log in utilizando il nome utente creato nelle fasi precedenti.
63
Capitolo 3. Procedure per l'installazione del sistema operativo guest
27. A questo punto l'installazione di un guest paravirtualizzato di Red Hat Enterprise Linux 5 è
completata.
64
Installazione di Red Hat Enterprise Linux 5 come guest completamente virtualizzato
3.2. Installazione di Red Hat Enterprise Linux 5 come guest
completamente virtualizzato
Questa sezione affronta il metodo attraverso il quale è possibile installare un guest Red Hat Enterprise
Linux 5 completamente virtualizzato.
Procedura 3.3. Creazione di un guest Red Hat Enterprise Linux 5 completamente virtualizzato con virtmanager
1. Open virt-manager
Start virt-manager. Launch the Virtual Machine Manager application from the Applications
menu and System Tools submenu. Alternatively, run the virt-manager command as root.
2.
Select the hypervisor
Select the hypervisor. If installed, select Xen or KVM. For this example, select KVM. Note that
presently KVM is named qemu.
Connect to a hypervisor if you have not already done so. Open the File menu and select the Add
Connection... option. Refer to Sezione 16.1, «La finestra apri collegamento».
65
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Una volta selezionato il collegamento sarà disponibile il pulsante Nuovo. A questo punto premere
il pulsante Nuovo.
3.
Start the new virtual machine wizard
Pressing the New button starts the virtual machine creation wizard.
Press Forward to continue.
4.
66
Name the virtual machine
Provide a name for your virtualized guest. Punctuation and whitespace characters are not
permitted.
Installazione di Red Hat Enterprise Linux 5 come guest completamente virtualizzato
Press Forward to continue.
5.
Choose a virtualization method
Choose the virtualization method for the virtualized guest. Note you can only select an installed
virtualization method. If you selected KVM or Xen earlier (Passo 4) you must use the hypervisor
you selected. This example uses the KVM hypervisor.
67
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Forward to continue.
6.
Select the installation method
Selezionare Dispositivo d'installazione locale per l'installazione da un disco ottico o immagine
ISO; Albero d'installazione di rete da un server NFS, FTP o HTTP; o Avvio di rete per una
installazione da un server PXE.
Set OS Type to Linux and OS Variant to Red Hat Enterprise Linux 5 as shown in the
screenshot.
68
Installazione di Red Hat Enterprise Linux 5 come guest completamente virtualizzato
Press Forward to continue.
7.
Locate installation media
Selezionare la posizione dell'immagine ISO o dispositivo DVD o CD-ROM. Questo esempio
utilizza una immagine del file ISO del DVD d'installazione di Red Hat Enterprise Linux 5.
a.
Press the Browse button.
b.
Andare alla ricerca della posizione del file ISO e selezionare l'immagine ISO. Selezionare
Apri per confermare la selezione fatta.
c.
The file is selected and ready to install from.
69
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Forward to continue.
Image files and SELinux
For ISO image files and guest storage images, use the /var/lib/libvirt/
images/ directory. Any other location may require additional configuration for
SELinux, refer to Sezione 7.1, «SELinux e virtualizzazione» for details.
8.
70
Storage setup
Assign a physical storage device (Block device) or a file-based image (File). File-based images
must be stored in the /var/lib/libvirt/images/ directory. Assign sufficient storage for your
virtualized guest. Assign sufficient space for your virtualized guest and any application it requires.
Installazione di Red Hat Enterprise Linux 5 come guest completamente virtualizzato
Press Forward to continue.
Come migrare questo guest
Live and offline migrations require guests to be installed on shared network storage.
For information on setting up shared storage for guests refer to Capitolo 5, Storge
condiviso e virtualizzazione.
9.
Network setup
Select either Virtual network or Shared physical device.
The virtual network option uses Network Address Translation (NAT) to share the default network
device with the virtualized guest. Use the virtual network option for wireless networks.
The shared physical device option uses a network bond to give the virtualized guest full access to
a network device.
71
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Forward to continue.
10. Memory and CPU allocation
The Allocate memory and CPU window displays. Choose appropriate values for the virtualized
CPUs and RAM allocation. These values affect the host's and guest's performance.
Virtualized guests require sufficient physical memory (RAM) to run efficiently and effectively.
Choose a memory value which suits your guest operating system and application requirements.
Windows Server 2008. Remember, guests use physical RAM. Running too many guests or
leaving insufficient memory for the host system results in significant usage of virtual memory
and swapping. Virtual memory is significantly slower causing degraded system performance
and responsiveness. Ensure to allocate sufficient memory for all guests and the host to operate
effectively.
Assign sufficient virtual CPUs for the virtualized guest. If the guest runs a multithreaded
application assign the number of virtualized CPUs it requires to run most efficiently. Do not
assign more virtual CPUs than there are physical processors (or hyper-threads) available on
72
Installazione di Red Hat Enterprise Linux 5 come guest completamente virtualizzato
the host system. It is possible to over allocate virtual processors, however, over allocating has
a significant, negative affect on guest and host performance due to processor context switching
overheads.
Press Forward to continue.
11. Verify and start guest installation
Verify the configuration.
73
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Finish to start the guest installation procedure.
12. Installazione di Linux
Complete the Red Hat Enterprise Linux 5 installation sequence. The installation sequence is
covered by the Red Hat Enterprise Linux Installation Guide, available from http://redhat.com/docs.
È stato ora installato un guest Red Hat Enterprise Linux 5 completamente virtualizzato.
3.3. Installazione di Windows XP come guest
completamente virtualizzato
Windows XP può essere installato come un guest completamente virtualizzato. Questa sezione
descrive le fasi necessarie per installare Windows XP come guest completamente virtualizzato su
Linux.
Prima di iniziare questa procedura assicurarsi di avere un accesso root.
74
Installazione di Windows XP come guest completamente virtualizzato
1.
Starting virt-manager
Open Applications > System Tools > Virtual Machine Manager. Open a connection to the host
(click File > Open Connection). Click the New button to create a new virtual machine.
2.
Come nominare il proprio sistema virtuale
Inserire il nome del sistema e successivamente fare clic su Avanti.
3.
Selezione di un metodo di virtualizzazione
If you selected KVM or Xen earlier (step Passo 1 ) you must use the hypervisor you selected. This
example uses the KVM hypervisor.
Windows può essere installato solo utilizzando full virtualization.
75
Capitolo 3. Procedure per l'installazione del sistema operativo guest
4.
Selezione di un metodo d'installazione
Questa schermata permetterà di specificare il metodo d'installazione ed il tipo di sistema
operativo.
Per una installazione DVD o CD-ROM selezionare il dispositivo con il disco di installazione di
Windows al suo interno. Se si seleziona Posizione immagine ISO inserire il percorso per una
installazione di Windows .iso image.
Selezionare Windows dall'elenco Tipo di OS e Microsoft Windows XP dall'elenco Variante OS.
L'installazione PXE non è riportata in questo capitolo.
76
Installazione di Windows XP come guest completamente virtualizzato
Press Forward to continue.
Image files and SELinux
For ISO image files and guest storage images the the recommended to use the /
var/lib/libvirt/images/ directory. Any other location may require additional
configuration for SELinux, refer to Sezione 7.1, «SELinux e virtualizzazione» for
details.
5.
The Assigning storage space window displays. Choose a disk partition, LUN or create a file
based image for the guest storage.
The convention for file based images in Fedora is that all file based guest images are in the /
var/lib/libvirt/images/ directory. Other directory locations for file based images are
prohibited by SELinux. If you run SELinux in enforcing mode, refer to Sezione 7.1, «SELinux e
virtualizzazione» for more information on installing guests.
77
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Your guest storage image should be larger than the size of the installation, any additional
packages and applications, and the size of the guests swap file. The installation process will
choose the size of the guest's swap file based on size of the RAM allocated to the guest.
Allocate extra space if the guest needs additional space for applications or other data. For
example, web servers require additional space for log files.
Choose the appropriate size for the guest on your selected storage type and click the Forward
button.
Nota
È consigliato utilizzare la cartella predefinita, /var/lib/xen/images/, per le
immagini della macchina virtuale. Se si utilizza una posizione diversa (come ad
esempio /images/) assicurarsi di aggiungerla alla propria politica di SELinux e di
78
Installazione di Windows XP come guest completamente virtualizzato
rietichettarla prima di continuare con l'installazione (più avanti nella documentazione
è possibile trovare le informazioni su come modificare la politica di SELinux)
6.
Network setup
Select either Virtual network or Shared physical device.
The virtual network option uses Network Address Translation (NAT) to share the default network
device with the virtualized guest. Use the virtual network option for wireless networks.
The shared physical device option uses a network bond to give the virtualized guest full access to
a network device.
Press Forward to continue.
7.
The Allocate memory and CPU window displays. Choose appropriate values for the virtualized
CPUs and RAM allocation. These values affect the host's and guest's performance.
79
Capitolo 3. Procedure per l'installazione del sistema operativo guest
I guest virtualizzati hanno bisogno di una memoria fisica (RAM) sufficiente per una esecuzione
efficiente ed effettiva. Selezionare un valore idoneo per il proprio sistema operativo guest e per
i requisiti dell'applicazione. Numerosi sistemi operativi hanno bisogno di almeno 512MB di RAM
per funzionare correttamente. Ricordare, i guest utilizzano una RAM fisica. L'esecuzione di troppi
guest o una memoria insufficiente per il sistema host potrà provocare un utilizzo molto elevato
di memoria virtuale e dello swapping. La memoria virtuale è molto più lenta e causa un degrado
delle prestazioni e dei tempi di risposta. Assicurarsi di assegnare memoria sufficiente per tutti i
guest e per l'host in modo da operare correttamente.
Assign sufficient virtual CPUs for the virtualized guest. If the guest runs a multithreaded
application assign the number of virtualized CPUs it requires to run most efficiently. Do not
assign more virtual CPUs than there are physical processors (or hyper-threads) available on
the host system. It is possible to over allocate virtual processors, however, over allocating has
a significant, negative affect on guest and host performance due to processor context switching
overheads.
80
Installazione di Windows XP come guest completamente virtualizzato
8.
Prima che l'installazione continui verrà visualizzata una schermata riassuntiva. Selezionare Fine
per procedere con l'installazione del guest:
9.
Poichè sarà necessario scegliere l'hardware è importante aprire velocemente una finestra della
console dopo l'avvio del processo d'installazione. Una volta premuto il pulsante Fine assicurarsi
di controllare attentamente la finestra riassuntiva del virt-manager e selezionare il nuovo guest
di Windows appena avviato. Fare un doppio clic sul nome del sistema, così facendo si aprirà una
finestra della console. Premere velocemente F5 per selezionare un nuovo HAL, una volta ottenuta
la casella di dialogo selezionare la scheda corrispondente alla Piattaforma i486 generica
(è possibile scorrere l'elenco usando i tasti freccetta Su e Giù).
81
Capitolo 3. Procedure per l'installazione del sistema operativo guest
10. Il processo continuerà con l'installazione di Windows standard.
82
Installazione di Windows XP come guest completamente virtualizzato
83
Capitolo 3. Procedure per l'installazione del sistema operativo guest
11. Partizionare l'hard drive quando richiesto.
84
Installazione di Windows XP come guest completamente virtualizzato
12. Dopo aver formattato il proprio drive, Windows inizierà a copiare i file sull'hard drive.
85
Capitolo 3. Procedure per l'installazione del sistema operativo guest
13. I file vengono copiati sul dispositivo di storage, a questo punto Windows eseguirà una procedura
di riavvio.
14. Riavviare il guest Windows:
# virsh start WindowsGuest
Dove WindowsGuest è il nome della macchina virtuale.
15. Quando si apre la console di Windows si sarà in grado di visualizzare la fase per l'impostazione
dell'installazione di Windows.
86
Installazione di Windows XP come guest completamente virtualizzato
16. Se il processo d'installazione sembra arrestarsi durante la fase d'impostazione, riavviate il guest
utilizzando il comando virsh reboot WindowsGuestName. Il suddetto comando dovrebbe
ripristinare tale processo. Durante il riavvio della macchina virtuale è possibile visualizzare il
messaggio Setup is being restarted:
87
Capitolo 3. Procedure per l'installazione del sistema operativo guest
17. Una volta terminata la fase di impostazione sarà possibile visualizzare la schermata d'avvio di
Windows:
88
Installazione di Windows XP come guest completamente virtualizzato
18. È ora possibile continuare con l'impostazione normale del processo d'installazione di Windows:
89
Capitolo 3. Procedure per l'installazione del sistema operativo guest
19. Il processo d'installazione è ora completato, a questo punto verrà visualizzato il desktop di
Windows.
90
Installazione di Windows Server 2003 come guest completamente virtualizzato
3.4. Installazione di Windows Server 2003 come guest
completamente virtualizzato
This chapter describes installing a fully virtualized Windows Server 2003 guest with the virtinstall command. virt-install can be used instead of virt-manager This process is similar
to the Windows XP installation covered in Sezione 3.3, «Installazione di Windows XP come guest
completamente virtualizzato».
1.
Tramite l'utilizzo di virt-install per l'installazione di Windows Server 2003 come console per
il guest Windows è possibile visualizzare la finestra di virt-viewer. Un esempio di come utilizzare
virt-install per l'installazione di un guest Windows Server 2003:
Iniziare l'installazione con il comando virt-install.
# virt-install -hvm -s 5 -f /var/lib/libvirt/images/windows2003spi1.dsk \
-n windows2003sp1 -cdrom=/ISOs/WIN/en_windows_server_2003_sp1.iso \
-vnc -r 1024
91
Capitolo 3. Procedure per l'installazione del sistema operativo guest
2.
Dopo aver iniziato l'installazione del proprio guest sarà necessario selezionare velocemente F5.
Se non si preme F5 al momento opportuno sarà necessario iniziare nuovamente l'installazione.
Premendo F5 si aprirà una finestra di dialogo per la selzione di un HAL diverso o tipo di
computer. A questo punto selezionare Standard PC. Questa è la sola fase non standard
necessaria:
3.
Completare il resto dell'installazione.
92
Installazione di Windows Server 2003 come guest completamente virtualizzato
4.
Windows Server 2003 come guest completamente virtualizzato.
93
Capitolo 3. Procedure per l'installazione del sistema operativo guest
3.5. Installazione di Windows Server 2008 come guest
completamente virtualizzato
Questa sezione riporta le fasi necessarie per l'installazione di un guest di Windows Server 2008
completamente virtualizzato.
Procedura 3.4. Installazione di Windows Server 2008 con virt-manager
1. Open virt-manager
Start virt-manager. Launch the Virtual Machine Manager application from the Applications
menu and System Tools submenu. Alternatively, run the virt-manager command as root.
2.
Select the hypervisor
Select the hypervisor. If installed, select Xen or KVM. For this example, select KVM. Note that
presently KVM is named qemu.
Dopo aver selezionato l'opzione verrà visualizzato il pulsante Nuovo. Premere il pulsante Nuovo.
3.
94
Start the new virtual machine wizard
Pressing the New button starts the virtual machine creation wizard.
Installazione di Windows Server 2008 come guest completamente virtualizzato
Press Forward to continue.
4.
Name the virtual machine
Provide a name for your virtualized guest. Punctuation and whitespace characters are not
permitted.
95
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Forward to continue.
5.
96
Choose a virtualization method
Choose the virtualization method for the virtualized guest. Note you can only select an installed
virtualization method. If you selected KVM or Xen earlier (step 2) you must use the hypervisor you
selected. This example uses the KVM hypervisor.
Installazione di Windows Server 2008 come guest completamente virtualizzato
Press Forward to continue.
6.
Select the installation method
Per tutte le versioni di Windows è necessario utilizzare il dispositivo d'installazione locale, una
immagine ISO o un dispositivo ottico fisico.
È possibile usare PXE se avete configurato un server PXE per l'installazione di rete di Windows.
L'installazione di PXE Windows non viene affrontata in questa guida.
Set OS Type to Windows and OS Variant to Microsoft Windows 2008 as shown in the
screenshot.
97
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Forward to continue.
7.
98
Locate installation media
Selezionare una posizione dell'immagine ISO o dispositivo DVD o CD-ROM. In questo esempio
viene usato un file image ISO del CD d'installazione di Windows Server 2008.
a.
Press the Browse button.
b.
Search to the location of the ISO file and select it.
Installazione di Windows Server 2008 come guest completamente virtualizzato
Press Open to confirm your selection.
c.
The file is selected and ready to install from.
99
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Forward to continue.
Image files and SELinux
For ISO image files and guest storage images, the recommended directory to
use is the /var/lib/libvirt/images/ directory. Any other location may
require additional configuration for SELinux, refer to Sezione 7.1, «SELinux e
virtualizzazione» for details.
8.
100
Storage setup
Assign a physical storage device (Block device) or a file-based image (File). File-based images
must be stored in the /var/lib/libvirt/images/ directory. Assign sufficient storage for your
virtualized guest. Assign sufficient space for your virtualized guest and any application it requires.
Installazione di Windows Server 2008 come guest completamente virtualizzato
Press Forward to continue.
9.
Network setup
Select either Virtual network or Shared physical device.
The virtual network option uses Network Address Translation (NAT) to share the default network
device with the virtualized guest. Use the virtual network option for wireless networks.
The shared physical device option uses a network bond to give the virtualized guest full access to
a network device.
101
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Forward to continue.
10. Memory and CPU allocation
The Allocate memory and CPU window displays. Choose appropriate values for the virtualized
CPUs and RAM allocation. These values affect the host's and guest's performance.
Virtualized guests require sufficient physical memory (RAM) to run efficiently and effectively.
Choose a memory value which suits your guest operating system and application requirements.
Windows Server 2008. Remember, guests use physical RAM. Running too many guests or
leaving insufficient memory for the host system results in significant usage of virtual memory
and swapping. Virtual memory is significantly slower causing degraded system performance
and responsiveness. Ensure to allocate sufficient memory for all guests and the host to operate
effectively.
Assign sufficient virtual CPUs for the virtualized guest. If the guest runs a multithreaded
application assign the number of virtualized CPUs it requires to run most efficiently. Do not
assign more virtual CPUs than there are physical processors (or hyper-threads) available on
102
Installazione di Windows Server 2008 come guest completamente virtualizzato
the host system. It is possible to over allocate virtual processors, however, over allocating has
a significant, negative affect on guest and host performance due to processor context switching
overheads.
Press Forward to continue.
11. Verify and start guest installation
Verify the configuration.
103
Capitolo 3. Procedure per l'installazione del sistema operativo guest
Press Finish to start the guest installation procedure.
104
Installazione di Windows Server 2008 come guest completamente virtualizzato
12. Installazione di Windows
Complete the Windows Server 2008 installation sequence. The installation sequence is not
1
covered by this guide, refer to Microsoft's documentation for information on installing Windows.
105
106
Parte II. Configuration
Configurazione della
virtualizzazione con Fedora
Questi capitoli riportano le fasi necessarie per la configurazione delle procedure dei compiti avanzati
relativi alla virtualzzazione. I suddetti compiti includono l'aggiunta di dispositivi di storage e di rete,
il miglioramento della sicurezza, delle prestazioni e l'utilizzo di driver paravirtualizzati su guest
completamente virtualizzati.
Capitolo 4.
Dispositivi a blocchi virtualizzati
Questo capitolo affronta le fasi per l'installazione e la configurazione dei dispositivi a blocchi nei guest
virtualizzati. Il termine dispositivi a blocchi si riferisce a varie forme di dispositivi storage.
4.1. Creazione di un controllore del dischetto floppy
virtualizzato
I controllori del dischetto floppy sono necessari per un certo numero di sistemi operativi più vecchi,
ed in particolare per l'installazione dei driver. Al momento non è possibile accedere ai dospositivi
del dischetto floppy fisici da guest virtualizzati. Tuttavia la creazione e l'accesso delle immagini del
dischetto floppy dalle unità floppy virtualizzate è supportato. Questa sezione affronta le fasi necessarie
per la creazione di un dispositivo floppy virtualizzato.
An image file of a floppy disk is required. Create floppy disk image files with the dd command.
Replace /dev/fd0 with the name of a floppy device and name the disk appropriately.
# dd if=/dev/fd0 of=~/legacydrivers.img
Nota per i driver para-virtualizzati
I driver paravirtualizzati possono mappare i dispositivi floppy fisici su guest
completamente virtualizzati.
In questo esempio si utilizza un guest creato con virt-manager il quale esegue una installazione
Linux completamente virtualizzata con l'immagina posizionata in /var/lib/libvirt/images/
rhel5FV.img. In questa circostanza si utilizza l'hypervisor Xen.
1.
Creare il file di configurazione XML per l'immagine del guest usando il comando virsh su di un
guest in esecuzione.
# virsh dumpxml rhel5FV > rhel5FV.xml
This saves the configuration settings as an XML file which can be edited to customize the
operations and devices used by the guest. For more information on using the virsh XML
configuration files, refer to Capitolo 18, Creazione script libvirt personalizzati.
2.
Creare una immagine del dischetto floppy per il guest.
# dd if=/dev/zero of=/var/lib/libvirt/images/rhel5FV-floppy.img bs=512 count=2880
3.
Aggiungere quanto di seguito riportato apportando le modifiche necessarie sul file XML di
configurazione del guest. In questo esempio verrà creato un guest con un dispositivo floppy come
dispositivo virtuale basato sul file.
<disk type='file' device='floppy'>
<source file='/var/lib/libvirt/images/rhel5FV-floppy.img'/>
<target dev='fda'/>
109
Capitolo 4. Dispositivi a blocchi virtualizzati
</disk>
4.
Arrestare il guest.
# virsh stop rhel5FV
5.
Riavviare il guest utilizzando il file di configurazione XML.
# virsh create rhel5FV.xml
Il dispositivo floppy è ora disponibile nel guest e conservato come file d'immagine sull'host.
4.2. Come aggiungere dispositivi di storage sui guest
Questa sezione affronta il metodo attraverso il quale è possibile aggiungere i dispositivi di storage su
di una macchina guest virtuale. È possibile implementare storage aggiuntivo solo dopo aver creato i
guest. I dispositivi di storage ed il protocollo supportati includono:
• partizioni del disco fisso locale,
• logical volume,
• Fibre channel o iSCSI collegati direttamente all'host.
• I contenitori basati sul file che risiedono in un file system sull'host.
• file system NFS montati direttamente dalla macchina virtuale.
• storage iSCSI accessibili direttamente dal guest.
• Cluster File Systems (GFS).
Come aggiungere uno storage basato sul file su di un guest
Uno storage basato sul file, o contenitori basati sul file, sono file presenti sul file system host i quali si
comportano come hard drive virtualizzati per guest virtualizzati. Per aggiungere i suddetti file eseguire
le fasi di seguito riportate:
1.
Creare un file del container vuoto oppure usare un container di un file esistente (come ad
esempio un file ISO).
a.
Creare uno sparse file usando il comando dd. L'utilizzo di sparse file non è consigliato a
causa di alcune problematiche relative all'integrità dei dati ed alle prestazioni che ne possono
derivare. Essi possono essere creati più velocemente ed usati per l'effettuazione di test ma
non in ambienti di produzione.
# dd if=/dev/zero of=/var/lib/libvirt/images/FileName.img bs=1M seek=4096 count=0
b.
110
Per i contenitori di storage basati sui file è consigliato l'utilizzo di file non-sparse preassegnati. Per la creazione di file non-sparse eseguire:
Come aggiungere dispositivi di storage sui guest
# dd if=/dev/zero of=/var/lib/libvirt/images/FileName.img bs=1M count=4096
Entrambi i comandi creano un file di 400MB il quale può essere usato come storage aggiuntivo
per un guest virtualizzato.
2.
Eseguire il dump della configurazione per il guest. In questo esempio il guest è Guest1 ed il file
viene salvato nella cartella home degli utenti.
# virsh dumpxml Guest1 > ~/Guest1.xml
3.
Open the configuration file (Guest1.xml in this example) in a text editor. Find the entries starting
with "disk=". This entry resembles:
>disk type='file' device='disk'<
>driver name='tap' type='aio'/<
>source file='/var/lib/libvirt/images/Guest1.img'/<
>target dev='xvda'/<
>/disk<
4.
Per aggiungere storage supplementare modificare la parte finale della voce disk=. Assicurarsi di
aver specificato un nome del dispositivo per il dispositivo a blocchi virtuale non ancora usato nel
file di configurazione. Di seguito viene riportato un esempio di voce che aggiunge un file chiamato
FileName.img come contenitore di storage basato sul file:
>disk type='file' device='disk'<
>driver name='tap' type='aio'/<
>source file='/var/lib/libvirt/images/Guest1.img'/<
>target dev='xvda'/<
>/disk<
>disk type='file' device='disk'<
>driver name='tap' type='aio'/<
>source file='/var/lib/libvirt/images/FileName.img'/<
>target dev='hda'/<
>/disk<
5.
Riavviare il guest dal file di configurazione aggiornato.
# virsh create Guest1.xml
6.
Le seguenti fasi sono specifiche al guest di Linux. Altri sistemi operativi gestiscono nuovi
dispositivi di storage in modo differente. Per i sistemi non-Linux consultare la documentazione
relativa ai sistemi operativi guest in questione.
Il guest utilizza ora il file FileName.img come dispositivo /dev/hdb. Questo dispositivo
necessita di una formattazione da parte del guest. Sul guest, partizionare il dispositivo in una
partizione primaria per l'intero dispositivo e successivamente formattare il dispositivo stesso.
a.
Inserire n per una nuova partizione.
111
Capitolo 4. Dispositivi a blocchi virtualizzati
# fdisk /dev/hdb
Command (m for help):
b.
Inserire p per una partizione primaria.
Command action
e
extended
p
primary partition (1-4)
c.
Selezionare un numero disponibile per la partizione. In questo esempio la prima partizione
viene selezionata inserendo 1.
Partition number (1-4): 1
d.
Inserire il primo cilindro predefinito selezionando Enter.
First cylinder (1-400, default 1):
e.
Selezionare la dimensione della partizione. In questo esempio l'intero disco viene assegnato
selezionando Enter.
Last cylinder or +size or +sizeM or +sizeK (2-400, default 400):
f.
Impostare il tipo di partizione inserendo t.
Command (m for help): t
g.
Selezionare la partizione precedentemente creata. In questo esempio risulterà essere la
partizione 1.
Partition number (1-4): 1
h.
Inserire 83 per una partizione Linux.
Hex code (type L to list codes): 83
i.
salvare le modifiche sul disco ed uscire.
Command (m for help): w
Command (m for help): q
j.
Formattare la nuova partizione con il file system ext3.
# mke2fs -j /dev/hdb
112
Configurazione memoria persistente
7.
Montare il disco sul guest.
# mount /dev/hdb1 /myfiles
Il guest ora presenta un dispositivo aggiuntivo di storage basato sul file virtualizzato.
Come aggiungere hard drive ed altri dispositivi a blocchi su di un guest
System administrators use additional hard drives for to provide more storage space or to separate
system data from user data. This procedure, Procedura 4.1, «Come aggiungere un dispositivo a
blocchi fisico su guest virtualizzati», describes how to add a hard drive on the host to a virtualized
guest.
La procedura funziona per tutti i dispositivi a blocchi fisici, ciò include dispositivi floppy, CD-ROM e
DVD.
Procedura 4.1. Come aggiungere un dispositivo a blocchi fisico su guest virtualizzati
1. Collegare fisicamente il dispositivo disco fisso all'host. Configurare l'host se l'unità non è
accessibile per default.
2.
Configurare il dispositivo con multipath e la persistenza sull'host se necessario.
3.
Utilizzare il comando virsh attach. Sostituire: myguest con il nome del vostro guest, /dev/
hdb1 con il dispositivo da aggiungere, e hdc con la posizione per il dispositivo sul guest. hdc
deve essere un nome del dispositivo non acora utilizzato. Usare l'annotazione hd* per i guest di
Windows, in questo modo il guest riconoscerà in modo corretto il dispositivo.
Aggiungere il parametro --type hdd al comando per i dispositivi DVD o CD-ROM.
Aggiungere il parametro --type floppy al comando per i dispositivi floppy.
# virsh attach-disk myguest /dev/hdb1 hdc --driver tap --mode readonly
4.
A questo punto il guest possiede un nuovo dispositivo disco fisso chiamato /dev/hdb su Linux o
D: drive, o simile, su Windows. A tal proposito potrebbe essere necessario formattare questo
dispositivo.
4.3. Configurazione memoria persistente
Questa sezione si riferisce ai sistemi con una memoria esterna o collegata alla rete; cioè dispositivi
di immagazzinamento dati basati su iSCSI o Fibre Channel. È consigliato configurare i nomi del
dispositivo persistente sugli host. Tale operazione aiuterà anche durante la migrazione live e per
una implementazione uniforme dei nomi del dispositivo e di memorizzazione per sistemi multipli
virtualizzati.
L'Universally Unique Identifier (UUID) è un metodo standardizzato per l'identificazione dei computer
e dei dispositivi in ambienti computerizzati distribuiti. Questa sezione utilizza UUID per identificare i
LUN Fibre Channel o iSCSI. Gli UUID sono persistenti anche dopo un riavvio, uno scollegamento e
uno scambio di dispositivi. L'UUID è simile ad una etichetta su di un dispositivo.
Systems which are not running multipath must use Configurazione di un percorso singolo. Systems
running multipath can use Configurazione di percorsi multipli.
113
Capitolo 4. Dispositivi a blocchi virtualizzati
Configurazione di un percorso singolo
Questa procedura implementa la persistenza del dispositivo LUN utilizzando udev. Usare questa
procedura solo per gli host che non usano multipath.
1.
Modificare il file /etc/scsi_id.config.
a.
Ensure the options=-b is line commented out.
# options=-b
b.
Aggiungere la seguente riga:
options=-g
Questa opzione configurerà udev in modo da assumere che tutti i dispositivi SCSI
ritorneranno un UUID.
2.
Per visualizzare l'UUID per un dato dispositivo eseguire il comando scsi_id -g -s /block/
sd*. Per esempio:
# scsi_id -g -s /block/sd*
3600a0b800013275100000015427b625e
L'output potrebbe scostarsi dall'esempio sopra citato. Esso mostra l'UUID del dispositivo /dev/
sdc.
3.
Verificare che l'output UUID del comando scsi_id -g -s /block/sd* sia identico a quello
del computer che accede al dispositivo.
4.
Creare una regola per il nome del vostro dispositivo. Create un file 20-names.rules nella
directory /etc/udev/rules.d. A questo punto le nuove regole dovranno essere aggiunte al
file. Tutte le regole sono aggiunte allo stesso file utilizzando lo stesso formato. Le regole dovranno
avere il seguente formato:
KERNEL="sd*", BUS="scsi", PROGRAM="/sbin/scsi_id -g -s", RESULT=UUID, NAME=devicename
Sostituire UUID e devicename con l'UUID sopra indicato e con il nome desiderato per il
dispositivo. Nell'esempio la regola somiglierà a quanto di seguito riportato:
KERNEL="sd*", BUS="scsi", PROGRAM="/sbin/scsi_id -g -s",
RESULT="3600a0b800013275100000015427b625e", NAME="rack4row16"
Il demone udev ora andrà alla ricerca di tutti i dispositivi chiamati /dev/sd* per l'UUID
presente nella regola. Una volta che il dispositivo corrispondente è stato collegato al sistema,
esso verrà assegnato allo stesso il nome della regola. Un dispositivo con un UUID di
3600a0b800013275100000015427b625e apparirà come /dev/rack4row16.
5.
114
Aggiungere la seguente riga su /etc/rc.local:
Configurazione memoria persistente
/sbin/start_udev
6.
Copiare le modifiche presenti su /etc/scsi_id.config, /etc/udev/rules.d/20names.rules, e /etc/rc.local su tutti gli host rilevanti.
/sbin/start_udev
I dispositivi di storage 'networked' con regole configurate avranno ora nomi persistenti su tutti gli host
sui quali sono stati aggiornati i file. Ciò significa che sarà possibile migrare i guest tra host utilizzando
la memoria condivisa, così facendo i guest potranno accedere ai dispositivi di storage nei propri file di
configurazione.
Configurazione di percorsi multipli
Il pacchetto multipath viene usato per sistemi con più di un percorso fisico dal computer ai
dispositivi di memorizzazione. multipath fornisce condizioni di elevata resistenza 'fault tolerant', failover, e migliori prestazioni per i dispositivi di storage della rete collegati ai sistemi Linux.
L'implementazione della persistenza LUN in un ambiente multipath necessita di nomi di alias
definiti per i dispositivi multipath. Ogni dispositivo di storage presenta un UUID il quale funge da
chiave per i nomi con alias. Identificare un UUID di un dispositivo tramite il comando scsi_id:
# scsi_id -g -s /block/sdc
I dispositivi multipath verranno creati nella directory /dev/mpath. Nell'esempio di seguito riportato
sono stati definiti 4 dispositivi in /etc/multipath.conf:
multipaths {
multipath {
wwid 3600805f30015987000000000768a0019
alias oramp1
}
multipath {
wwid 3600805f30015987000000000d643001a
alias oramp2
}
mulitpath {
wwid 3600805f3001598700000000086fc001b
alias oramp3
}
mulitpath {
wwid 3600805f300159870000000000984001c
alias oramp4
}
}
Questa configurazione creerà 4 LUN chiamati /dev/mpath/oramp1, /dev/mpath/oramp2, /dev/
mpath/oramp3 e /dev/mpath/oramp4. Una volta inseriti, la mappatura degli WWID dei dispositivi
sui nuovi nomi sarà persistente durante ogni processo di riavvio.
115
Capitolo 4. Dispositivi a blocchi virtualizzati
4.4. Aggiungere un dispositivo DVD o CD-ROM virtualizzato
ad un guest
To attach an ISO file to a guest while the guest is online use virsh with the attach-disk
parameter.
# virsh attach-disk [domain-id] [source] [target] --driver file --type cdrom --mode readonly
The source and target parameters are paths for the files and devices, on the host and guest
respectively. The source parameter can be a path to an ISO file or the device from the /dev
directory.
116
Capitolo 5.
Storge condiviso e virtualizzazione
Questo capitolo affronta argomenti specifici per lo storage di rete condiviso con virtualizzazione su
Fedora.
Per la virtualizzazione sono supportati i seguenti metodi:
• Fibre Channel
• iSCSI
• NFS
• GFS2
Lo storage 'networked' è essenziale per i processi di migrazione del guest live e offline. Non sarà
possibile migrare i guest senza uno storage condiviso.
5.1. Utilizzo di iSCSI per l'archiviazione dei guest
Questa sezione si riferisce all'utilizzo dei dispositivi basati su iSCSI per salvare i guest virtualizzati.
5.2. Utilizzo di NFS per l'archiviazione dei guest
Questa sezione riporta l'utilizzo di NFS per l'archiviazione dei guest virtualizzati.
5.3. Utilizzo di GFS2 per l'archiviazione dei guest
Questa sezione riporta l'utilizzo di fedora Global File System 2 (GFS2) per l'archiviazione dei guest
virtualizzati.
117
118
Capitolo 6.
Pratiche consigliate per il server
Di seguito sono riportati i compiti ed i suggerimenti per rendere sicuro ed affidabile il Fedora server
host (dom0).
• Eseguire SELinux in modalità enforcing. Per fare questo eseguire il comando riportato di seguito.
# setenforce 1
• Rimuovere o disabilitare qualsiasi servizio non necessario come ad esempio AutoFS, NFS, FTP,
HTTP, NIS, telnetd, sendmail e così via.
• Aggiungere solo il numero minimo di account utenti per la gestione della piattaforma sul server e
rimuovere gli account non necessari.
• Evitate di eseguire applicazioni non essenziali sull'host. L'esecuzione di applicazioni sull'host
potrebbe incidere negativamente sulle prestazioni della macchina virtuale e sulla stabilità del server.
Qualsiasi applicazione in grado di arrestare inaspettatamente il server sarà in grado di causare
l'arresto delle macchine virtuali sul server interessato.
• Utilizzare una posizione centrale per le immagini e le installazioni della macchina virtuale. Le
immagini della macchina virtuale dovrebbero essere conservate in /var/lib/libvirt/
images/. Se si sta utilizzando una directory diversa per le immagini della macchina virtuale,
assicurarsi di aggiungere la directory nella politica SELinux rietichettandola prima di eseguire
l'installazione.
• I media usati per l'installazione, gli alberi e le immagini devono essere conservati in una posizione
centrale, solitamente risulta essere la posizione del vostro server vsftpd.
119
120
Capitolo 7.
Sicurezza per la virtualizzazione
Quando si implementano le tecnologie per la virtualizzazione sulla propria infrastruttura corporativa,
assicurarsi di non compromettere l'host. L'host nell'hypervisior Xen è un dominio privilegiato che
amministra la gestione del sistema e tutte le macchine virtuali. Se l'host non è sicuro tutti i domini
presenti nel sistema sono vulnerabili. Sono disponibili diversi metodi attraverso i quali è possibile
aumentare la sicurezza dei sistemi che utilizzano la virtualizzazione. Insieme ad altri utenti presenti
nella propria organizzazione è possibile creare un piano d'impiego che contenga le specifiche
operative ed i servizi necessari sui propri guest virtualizzati e server host, insieme al supporto richiesto
per i suddetti servizi. Ecco alcune problematiche riguardanti la sicurezza da considerare al momento
della creazione di un piano d'impiego:
• Eseguire solo i servizi necessari sugli host. Minore è il numero di compiti e servizi in esecuzione
presenti all'interno dell'host, più elevato è il livello di sicurezza e delle prestazioni.
• Enable SELinux on the hypervisor. Read Sezione 7.1, «SELinux e virtualizzazione» for more
information on using SELinux and virtualization.
• Utilizzare un firewall per limitare il traffico per il dom0. È possibile impostare un firewall con regole
default-reject il quale assicura una protezione del dom0. È altresì importante limitare l'esposizione
della rete ai servizi.
• Non permettere ad utenti normali di accedere al dom0. Se si abilita il loro accesso si corre il rischio
di rendere dom0 vulnerabile. Ricordare, dom0 risulta essere privilegiato e conferire account non
privilegiati potrebbe compromettere il livello di sicurezza.
7.1. SELinux e virtualizzazione
Security Enhanced Linux was developed by the NSA with assistance from the Linux community to
provide stronger security for Linux. SELinux limits an attackers abilities and works to prevent many
common security exploits such as buffer overflow attacks and privilege escalation. It is because of
these benefits that Fedora recommends all Linux systems should run with SELinux enabled and in
enforcing mode.
SELinux impedisce il caricamento delle immagini del guest se SELinux è stato abilitato e le immagini
non sono presenti nella directory corretta. Con SELinux tutte le immagini devono essere conservate in
/var/lib/libvirt/images.
Come aggiungere uno storage basato su LVM con SELinux in modalità enforcing
La seguente sezione è un esempio su come aggiungere un volume logico ad un guest virtualizzato
con SELinux abilitato. Queste informazioni possono essere utili anche per le partizioni dell'hard drive.
Procedura 7.1. Creazione e montaggio di un volume logico su di un guest virtualizzato con SELinux
abilitato
1. Creare un volume logico. In questo esempio viene creato un volume logico di 5GB chiamato
NewVolumeName sul gruppo di volumi volumegroup.
# lvcreate -n NewVolumeName -L 5G volumegroup
2.
Formattare il volume logico NewVolumeName con un file system in grado di supportare gli attributi
estesi come ad esempio ext3.
121
Capitolo 7. Sicurezza per la virtualizzazione
# mke2fs -j /dev/volumegroup/NewVolumeName
3.
Creare una nuova cartella per il montaggio del nuovo volume logico. Questa cartella può essere
posizionata in qualsiasi luogo del file system. È consigliato non conservarla all'interno di cartelle
molto importanti (/etc, /var, /sys) o nelle cartelle home /home o /root). In questo esempio
viene usata una cartella chiamata /virtstorage
# mkdir /virtstorage
4.
Come montare un volume logico.
# mount /dev/volumegroup/NewVolumeName /virtstorage
5.
Impostare il tipo corretto di SELinux per la cartella Xen.
semanage fcontext -a -t xen_image_t "/virtualization(/.*)?"
Alternativamente impostare il tipo corretto di SELinux per una cartella KVM.
semanage fcontext -a -t virt_image_t "/virtualization(/.*)?"
Se si utilizza la targeted policy (targeted è la politica predefinita) il comando aggiungerà una riga
sul file /etc/selinux/targeted/contexts/files/file_contexts.local rendendo la
modifica persistente. La riga potrebbe somigliare alla seguente:
/virtstorage(/.*)?
6.
system_u:object_r:xen_image_t:s0
Eseguire il comando per modificare il tipo di mount point (/virtstorage) e tutti i file sottostanti
su xen_image_t (restorecon e setfiles leggono i file in /etc/selinux/targeted/
contexts/files/).
# restorecon -R -v /virtualization
7.2. Considerazioni su SELinux
Questa sezione contiene informazioni importanti per l'implementazione di SELinux all'interno
dell'ambiente virtualizzato. Quando si implementano alcune modifiche che riguardano il sistema
oppure si desidera aggiungere alcuni dispositivi, sarà necessario aggiornare di conseguenza la
propria politica SELinux. Per configurare un volume LVM per un guest è necessario modificare il
contesto di SELinux per il dispositivo a blocchi sottostante e per il gruppo di volumi corrispondenti.
# semanage fcontext -a -t xen_image _t -f -b /dev/sda2
# restorecon /dev/sda2
122
Considerazioni su SELinux
Il parametro booleano xend_disable_t imposta xend in modalità unconfined dopo il riavvio del
demone. È consigliato disabilitare la protezione per un demone singolo invece di disabilitarla per
l'intero sistema. Altresì non rietichettare le cartelle come xen_image_t utilizzate in altre parti.
123
124
Capitolo 8.
Configurazione di rete
Questa pagina fornisce una introduzione alle configurazioni comuni per il networking usate dalle
applicazioni basate su libvirt. Queste informazioni sono applicate su tutti gli hypervisor siano essi Xen,
KVM o altri. Per informazioni aggiuntive consultare la documentazione dell'architettura di rete di libvirt.
The two common setups are "virtual network" or "shared physical device". The former is identical
across all distributions and available out-of-the-box. The latter needs distribution specific manual
configuration.
8.1. Network address translation (NAT) con libvirt
Uno dei metodi più comuni per la condivisione dei collegamenti di rete è quello di usare il Network
address translation (NAT) forwarding (conosciuto anche come reti virtuali).
Configurazione host
Qualsiasi installazione di libvirt standard fornisce una connettività basata sul NAT alle macchine
virtuali, senza la necessità di una configurazione aggiuntiva. Ciò viene chiamato rete virtuale
predefinita. Verificatene la disponibilità con il comando virsh net-list --all.
# virsh net-list --all
Name
State
Autostart
----------------------------------------default
active
yes
Se mancante, il file di configurazione XML d'esempio può essere ricaricato e attivato:
# virsh net-define /usr/share/libvirt/networks/default.xml
La rete predefinita viene indicata da /usr/share/libvirt/networks/default.xml
Contrassegnare la rete predefinita in modo da eseguire un avvio automatico:
# virsh net-autostart default
Network default marked as autostarted
Avviare la rete predefinita:
# virsh net-start default
Network default started
Una volta avviata la rete predefinita di libvirt verrà visualizzato un dispositivo bridge isolato. Il
suddetto dispositivo non avrà alcuna interfaccia fisica ad esso aggiunta poichè verrà utilzzato l'IP
forwarding e NAT per collegarsi con l'esterno. Non aggiungere nuove interfacce.
# brctl show
bridge name
virbr0
bridge id
8000.000000000000
STP enabled
yes
interfaces
125
Capitolo 8. Configurazione di rete
libvirt aggiunge le regole iptables le quali abilitano il traffico da e per i guest collegati al
dispositivo virbr0 nelle catene INPUT, FORWARD, OUTPUT e POSTROUTING. Successivamente
libvirt cerca di abilitare il parametro ip_forward. Altre applicazioni potrebbero disabilitare
ip_forward e per questo motivo l'opzione migliore è quella di aggiungere quanto segue a /etc/
sysctl.conf.
net.ipv4.ip_forward = 1
Configurazione del guest
Una volta completata la configurazione dell'host sarà possibile collegare un guest alla rete virtuale
in base al proprio nome. Per collegare un guest alla rete virtuale predefinita è possibile utilizzare il
seguente XML all'interno del guest:
<interface type='network'>
<source network='default'/>
</interface>
Note
La definizione di un indirizzo MAC è facoltativa. Un indirizzo MAC viene generato
automaticamente se omesso. In alcune situazioni è utile impostare manualmente
l'indirizzo MAC.
<interface type='network'>
<source network='default'/>
<mac address='00:16:3e:1a:b3:4a'/>
</interface>
8.2. Bridged networking con libvirt
Il Bridged networking (conosciuto anche come condivisione del dispositivo fisico) è usato per
rendere disponibile un dispositivo fisico ad una macchina virtuale. Il Bridging viene spesso usato per
impostazioni più avanzate e su server con interfacce di rete multiple.
Disabilitare gli script di rete Xen
Se il sistema utilizza un bridge Xen è consigliato disabilitare il bridge di rete Xen predefinito
modificando /etc/xen/xend-config.sxp ed in particolare la riga:
(network-script network-bridge)
To:
(network-script /bin/true)
126
Bridged networking con libvirt
Disabilitare il NetworkManager
NetworkManager non supporta il bridging. A tal proposito è necessario disabilitare il NetworkManager
per poter usare il vecchio networking per gli script di rete.
#
#
#
#
chkconfig NetworkManager off
chkconfig network on
service NetworkManager stop
service network start
Note
Instead of turning off NetworkManager, you can add "NM_CONTROLLED=no" to the
ifcfg-* scripts used in the examples.
Creazione initscripts di rete
Creare o modificare i seguenti file di configurazione di rete. Questa fase può essere ripetuta (con nomi
diversi) per bridge di rete aggiuntivi.
Andare nella cartella /etc/sysconfig/network-scripts:
# cd /etc/sysconfig/network-scripts
Aprire lo script di rete per il dispositivo che si sta aggiungendo al bridge. In questo esempio ifcfgeth0 definisce l'interfaccia di rete fisica impostata come parte di un bridge:
DEVICE=eth0
# change the hardware address to match the hardware address your NIC uses
HWADDR=00:16:76:D6:C9:45
ONBOOT=yes
BRIDGE=br0
Tip
È possibile configurare il Maximum Transfer Unit (MTU) del dispositivo aggiungendo una
variabile MTU alla fine del file di configurazione.
MTU=9000
Creare un nuovo script di rete nella cartella /etc/sysconfig/network-scripts chiamato
ifcfg-br0 o simile. br0 è il nome del bridge, può essere qualsiasi cosa se il nome del file è uguale
al parametro del DISPOSITIVO.
DEVICE=br0
127
Capitolo 8. Configurazione di rete
TYPE=Bridge
BOOTPROTO=dhcp
ONBOOT=yes
DELAY=0
Warning
The line, TYPE=Bridge, is case-sensitive. It must have uppercase 'B' and lower case
'ridge'.
Dopo la configurazione riavviare il networking oppure eseguire un riavvio.
# service network restart
Configure iptables to allow all traffic to be forwarded across the bridge.
# iptables -I FORWARD -m physdev --physdev-is-bridged -j ACCEPT
# service iptables save
# service iptables restart
Disable iptables on bridges
Alternatively, prevent bridged traffic from being processed by iptables rules. In /etc/
sysctl.conf append the following lines:
net.bridge.bridge-nf-call-ip6tables = 0
net.bridge.bridge-nf-call-iptables = 0
net.bridge.bridge-nf-call-arptables = 0
Reload the kernel parameters configured with sysctl
# sysctl -p /etc/sysctl.conf
Restart the libvirt daemon.
# service libvirtd reload
You should now have a "shared physical device", which guests can be attached and have full LAN
access. Verify your new bridge:
# brctl show
bridge name
virbr0
br0
128
bridge id
8000.000000000000
8000.000e0cb30550
STP enabled
yes
no
interfaces
eth0
Bridged networking con libvirt
Da notare che il bridge è completamente indipendente dal bridge virbr0. È consigliato non
collegare un dispositivo fisico a virbr0. Il bridge virbr0 è solo per la connettività Network Address
Translation (NAT).
129
130
Capitolo 9.
Driver para-virtualizzati KVM
I driver paravirtualizzati sono disponibili per guest Windows virtualizzati in esecuzione su host KVM.
I suddetti driver sono inclusi nel pacchetto virtio. Il pacchetto virtio supporta i dispositivi a blocchi
(storage) ed i controllori dell'interfaccia di rete.
I driver paravirtualizzati aumentano le prestazioni dei guest completamente virtualizzati. Con i driver
paravirtualizzati la latenza I/O del guest diminuisce ed il numero di dati trasmessi aumenta a livelli
prossimi al bare-metal. È consigliato l'utilizzo dei driver paravirtualizzati per guest completamente
virtualizzati che eseguono numerose applicazioni e compiti I/O.
I driver paravirtualizzati KVM vengono automaticamente caricati ed installati sulle versioni più recenti
di Fedora. Le suddette versioni di Fedora rilevano ed installano i driver eliminando così la necessità di
eseguire fasi aggiuntive per l'installazione.
Come con il modulo KVM, i driver virtio sono solo disponibili su host che eseguono le versioni più
recenti di Fedora.
Note
Per guest sono disponibili 28 alloggiamenti PCI per i dispositivi aggiuntivi. Ogni rete
paravirtualizzata o dispositivo a blocchi utilizza un solo alloggiamento. Ogni guest è in
grado di utilizzare fino a 28 dispositivi aggiuntivi costituiti da ogni combinazione di rete
paravirtualizzata, dispositivi a disco paravirtualizzati o altri dispositivi PCI che utilizzano
VTd.
Le seguenti versioni di Microsoft Windows presentano un supporto dei driver paravirtualizzati KVM:
• Windows XP,
• Windows Server 2003,
• Windows Vista, e
• Windows Server 2008.
9.1. Installazione dei driver paravirtualizzati Windows di
KVM
Questa sezione si riferisce al processo d'installazione per i driver paravirtualizzati KVM di Windows.
I driver paravirtualizzati KVM possono essere caricati durante l'installazione di Windows o installati
dopo l'installazione del guest.
You can install the para-virtualized drivers on your guest by one of the following methods:
• hosting the installation files on a network accessible to the guest,
• using a virtualized CD-ROM device of the driver installation disk .iso file, or
• using a virtualized floppy device to install the drivers during boot time (for Windows guests).
This guide describes installation from the para-virtualized installer disk as a virtualized CD-ROM
device.
131
Capitolo 9. Driver para-virtualizzati KVM
1.
Scaricare i driver
1
I driver sono disponibili anche tramite Microsoft (windowsservercatalog.com ).
Il pacchetto virtio-win installa una immagine del CD-ROM (il file virtio-win.iso) nella cartella
/usr/share/virtio-win/.
2.
Installare i driver para-virtualizzati
È consigliato installare i driver sul guest prima di collegare o modificare un dispositivo per l'utilizzo
dei driver paravirtualizzati.
Per i dispositivi a blocchi con file system root o altri dispositivi a blocchi necessari per il processo
d'avvio del guest, i driver devono essere installati prima di modificare il dispositivo. Se i driver non
sono stati installati sul guest ed il driver è impostato sul driver virtio, il guest non verrà avviato.
Montaggio dell'immagine con virt-manager
Follow Procedura 9.1, «Utilizzo di virt-manager per il montaggio di una immagine CD-ROM per un
guest di Windos» to add a CD-ROM image with virt-manager.
Procedura 9.1. Utilizzo di virt-manager per il montaggio di una immagine CD-ROM per un guest di
Windos
1. Aprire virt-manager, selezionare il vostro guest virtualizzato dall'elenco delle macchine virtuali
e premere il pulsante Dettagli:
2.
Selezionare Aggiungi nel pannello Dettagli.
3.
This opens a wizard for adding the new device. Select Storage device from the drop down menu,
then click Forward.
132
Installazione dei driver paravirtualizzati Windows di KVM
4.
Selezionare l'opzione File (disk image) ed impostare la posizione del file .iso dei driver
paravirtualizzati. La posizione dei file .iso è /usr/share/xenpv-win se è stato usato yum per
installare i pacchetti del driver paravirtualizzato.
Se i driver sono stati salvati su CD fisici usare l'opzione Partizione disco normale.
Set the Device type to IDE cdrom and click Forward to proceed.
133
Capitolo 9. Driver para-virtualizzati KVM
5.
134
The disk has been assigned and is available for the guest once the guest is started. Click Finish
to close the wizard or back if you made a mistake.
Installazione dei driver paravirtualizzati Windows di KVM
Installazione con dischetto floppy virtualizzato
Questa procedura si riferisce all'installazione dei driver paravirtualizzati durante una installazione di
Windows.
•
Previa installazione della VM di Windows per la prima volta usando il menu run-once, inserire
viostor.vfd come floppy
a.
Windows Server 2003
Quando windows richiede la selezione di F6 per driver di terze parti, selezionare il tasto in
questione e seguire le istruzioni presenti sulla schermata.
b.
Windows Server 2008
When the installer prompts you for the driver, click on "Load Driver", point the installer to drive
A: and pick the driver that suits your OS and bittage
Utilizzo dei driver paravirtualizzati KVM per dispositivi esistenti
Modify an existing hard disk device attached to the guest to use the virtio driver instead of
virtualized IDE driver. This example edits libvirt configuration files. Alternatively, virt-manager,
135
Capitolo 9. Driver para-virtualizzati KVM
virsh attach-disk or virsh attach-interface can add a new device using the paravirtualized drivers Utilizzo dei driver paravirtualizzati KVM per nuovi dispositivi.
1.
Di seguito viene riportato un dispositivo a blocchi basato sul file il quale utilizza il driver IDE
virtualizzato. Questa è una voce tipica per un guest virtualizzato il quale non utilizza i driver
paravirtualizzati.
<disk type='file' device='disk'>
<source file='/var/lib/libvirt/images/disk1.img'/>
<target dev='hda' bus='ide'/>
</disk>
2.
Modificare la voce in modo da usare il dispositivo paravirtualizzato da bus= a virtio.
<disk type='file' device='disk'>
<source file='/var/lib/libvirt/images/disk1.img'/>
<target dev='hda' bus='virtio'/>
</disk>
Utilizzo dei driver paravirtualizzati KVM per nuovi dispositivi
Questa procedura si riferisce alla creazione di nuovi dispositivi utilizzando i driver paravirtualizzati
KVM con virt-manager.
Alternativamente i comandi virsh attach-disk o virsh attach-interface possono essere
usati per collegare i dispositivi utilizzando i driver paravirtualizzati.
Installare prima i driver
Assicurarsi di aver installato i driver sul guest di Windows prima di procedere con
l'installazione dei nuovi dispositivi. Se i driver non sono disponibili il dispositivo non li
riconoscerà e quindi non funzionerà.
1.
Aprire il guest virtualizzato facendo doppio clic sul nome del guest in virt-manager.
2.
Aprire la scheda Hardware.
3.
Selezionare Aggiungi Hardware.
4.
Nella scheda Aggiungi Hardware virtuale selezionare Storage o Rete per il tipo di dispositivo.
1. New disk devices
Selezionare il dispositivo di storage o l'immagine basata sul file. Selezionare Virtio Disk
come Tipo di dispositivo e premere Avanti.
136
Installazione dei driver paravirtualizzati Windows di KVM
2. New network devices
Selezionare Rete virtuale o Dispositivo fisico condiviso. Successivamente virtio come
Tipo di dispositivo e Avanti.
137
Capitolo 9. Driver para-virtualizzati KVM
5.
138
Selezionare Fine per salvare il dispositivo.
Installazione dei driver paravirtualizzati Windows di KVM
6.
Riavviare il guest. Il dispositivo potrebbe non essere riconosciuto dal guest di Windows fino al
successivo processo di riavvio.
139
140
Parte III. Administration
Amministrazione dei
sistemi virtualizzati
Questi capitoli contengono le informazioni necessarie per l'amministrazione dei guest virtualizzati e
degli host utilizzando gli strumenti presenti in Fedora.
Capitolo 10.
Gestione dei guest utilizzando xend
Il demone di controllo del nodo xend, esegue alcune funzioni di gestione del sistema che si riferiscono
alle macchine virtuali. Questo demone controlla le risorse virtualizzate, ed è necessario che xend sia
in esecuzione per interagire con le macchine virtuali. Prima di avviare xend specificare i parametri
operativi modificando il file di configurazione di xend, /etc/xen/xend-config.sxp. Ecco i
parametri da abilitare o disabilitare nel file di configurazione xend-config.sxp:
Item
Description
(console-limit)
Determina lo xend_unix_server, il limite del buffer
di memoria del server della console ed assegna i
valori in base al dominio
(min-mem)
Determina il numero minimo di megabyte
riservati per il domain0 (se inserite 0, il valore
non varia).
(dom0-cpus)
Determina il numero delle CPU utilizzate dal
domain0 (almeno 1 CPU è assegnata per
default).
(enable-dump)
Determina la presenza di un arresto inaspettato
'crash', e abilita un dump (il default è 0).
(external-migration-tool)
Determina lo script o l'applicazione che gestisce
la migrazione del dispositivo esterno. Gli script
devono risiedere in etc/xen/scripts/
external-device-migrate.
(logfile)
Determina la posizione del file di log (il
predefinito è /var/log/xend.log).
(loglevel)
Filtra i valori log mode: DEBUG, INFO,
WARNING, ERROR, o CRITICAL (il default è
DEBUG).
(network-script)
Determina lo script che abilita l'ambiente di
networking (gli script devono risiedere nella
cartella etc/xen/scripts ).
(xend-http-server)
Abilita il server per l'http stream packet
management (il predefinito è no).
(xend-unix-server)
Abilita il server unix domain socket, un server
socket rappresenta un punto finale delle
comunicazioni, che gestisce i collegamenti low
level network ed accetta o rifiuta i collegamenti in
entrata. Il valore predefinito è si.
(xend-relocation-server)
Abilita il server di riposizionamento per
migrazioni 'cross-machine' (il predefinito è no).
(xend-unix-path)
Determina la posizione dove il comando xendunix-server esegue l'output dei dati (il
predefinito è var/lib/xend/xend-socket)
(xend-port)
Determina la porta utilizzata dal server di
gestione http (il predefinito è 8000).
143
Capitolo 10. Gestione dei guest utilizzando xend
Item
Description
(xend-relocation-port)
Determina la porta utilizzata dal server di
riposizionamento (il predefinito è 8002).
(xend-relocation-address)
Determina gli indirizzi dell'host abilitati per la
migrazione. Il valore predefinito è il valore di
xend-address.
(xend-address)
Determina l'indirizzo al quale si lega il server del
domain socket. Il valore predefinito permette tutti
i collegamenti.
Tabella 10.1. Parametri di configurazione di xend
Dopo aver impostato i parametri operativi, verificare la corretta esecuzione di xend, ed in caso
contrario, inizializzare il demone. Al prompt del comando avviare il demone xend inserendo quanto
segue:
service xend start
Utilizzare xend per arrestare il demone:
service xend stop
Questo comando arresterà l'esecuzione del demone.
Per riavviare il demone utilizzare xend:
service xend restart
Per riavviare il demone.
Controllare lo stato del demone xend.
service xend status
L'output mostra lo stato del demone.
Abilitazione di xend al momento dell'avvio
Usare il comando chkconfig per aggiungere xend a initscript.
chkconfig --level 345 xend
xend verrà ora avviato nei runlevel 3,4 e 5.
144
Capitolo 11.
Gestione dell'ora del guest KVM
KVM utilizza la funzione constant Time Stamp Counter (TSC) presente nelle moderne CPU. Alcune
CPU non utilizzano un constant Time Stamp Counter (TSC) e ciò influenzerà il modo attraverso
il quale i guest in esecuzione su KVM gestiscono l'ora. I guest in esecuzione senza una gestione
accurata possono avere effetti molto seri su alcune applicazioni della rete, poiché i guest interessati
verranno eseguiti più velocemente o più lentamente rispetto all'ora esatta.
A causa di un orologio o contatore non accurati i guest possono presentare diversi problemi:
• Gli orologi possono essere sfasati rispetto all'ora attuale causando sessioni invalide ed interessando
negativamente le reti.
• I guest con orologi più lenti potranno avere problemi durante il processo di migrazione.
• I guest potranno arrestarsi inaspettatamente.
I suddetti problemi sono presenti su altre piattaforme di virtualizzazione ed è consigliato sempre di
eseguire un test sulla gestione dell'ora.
NTP
Il demone Network Time Protocol (NTP) deve risultare in esecuzione sull'host e sui guest.
Abilitare il servizio ntpd:
# service ntpd start
Aggiungere il servizio ntpd alla sequenza d'avvio predefinita:
# chkconfig ntpd on
L'utilizzo del servizio ntpd dovrebbe diminuire gli effetti relativi all'alterazione dell'orologio
in qualsiasi caso.
Come determinare se la CPU possiede un constant Time Stamp Counter
La CPU possiede un constant Time Stamp Counter se è presente il flag constant_tsc. Per
determinare la presenta del flag constant_tsc eseguire il seguente comando:
$ cat /proc/cpuinfo | grep constant_tsc
Se qualsiasi output viene visualizzato ciò indicherà la presenza del bit constant_tsc nella CPU. Se
al contrario nessun output viene visualizzato allora seguire le istruzioni di seguito indicate.
Configurazione di un host senza un constant Time Stamp Counter
I sistemi che non possiedono alcun constant time stamp counter avranno bisogno di una
configurazione aggiuntiva. Le funzioni di gestione dell'alimentazione interferiscono con la gestione
145
Capitolo 11. Gestione dell'ora del guest KVM
accurata dell'ora e devono essere disabilitate. Così facendo sarà possibile per un guest con KVM
gestire accuratamente l'ora.
Note
Queste informazioni sono rivolte solo alle AMD revision F cpu
1
If the CPU lacks the constant_tsc bit, disable all power management features (BZ#513138 ). Each
system has several timers it uses to keep time. The TSC is not stable on the host, which is sometimes
caused by cpufreq changes, deep C state, or migration to a host with a faster TSC. To stop deep C
states, which cam stop the TSC, add "processor.max_cstate=1" to the kernel boot options in grub
on the host:
term Fedora (vmlinuz-2.6.29.6-217.2.3.fc11)
root (hd0,0)
kernel /vmlinuz-vmlinuz-2.6.29.6-217.2.3.fc11 ro root=/dev/VolGroup00/LogVol00 rhgb
quiet processor.max_cstate=1
Disabilitare cpufreq (necessario solo su host senza constant_tsc) modificando il file di
configurazione /etc/sysconfig/cpuspeed e successivamente le variabili MIN_SPEED e
MAX_SPEED sulla frequenza più alta disponibile. I limiti validi sono disponibili nei file /sys/devices/
system/cpu/cpu*/cpufreq/scaling_available_frequencies.
Utilizzo dell'orologio paravirtualizzato con i guest di Red Hat Enterprise Linux
Per alcuni guest di Red Hat Enterprise Linux sono necessari alcuni parametri aggiuntivi del kernel. I
suddetti parametri possono essere impostati aggiungendoli alla fine della riga del /kernel nel file /boot/
grub/grub.conf del guest.
La seguente tabella riporta le versioni di Red Hat Enterprise Linux ed i parametri necessari per i guest
sui sistemi senza un Time Stamp Counter costante.
Red Hat Enterprise Linux
Parametri aggiuntivi relativi al kernel del guest
5.4 AMD64/Intel 64 con orologio I parametri aggiuntivi non sono necessari
paravirtualizzato
1
5.4 AMD64/Intel 64 senza
orologio paravirtualizzato
divider=10 notsc lpj=n
5.4 x86 con orologio
paravirtualizzato
I parametri aggiuntivi non sono necessari
5.4 x86 senza orologio
paravirtualizzato
divider=10 clocksource=acpi_pm lpj=n
5.3 AMD64/Intel 64
divider=10 notsc
5.3 x86
divider=10 clocksource=acpi_pm
4.8 AMD64/Intel 64
notsc divider=10
4.8 x86
clock=pmtmr divider=10
3.9 AMD64/Intel 64
I parametri aggiuntivi non sono necessari
https://bugzilla.redhat.com/show_bug.cgi?id=513138
146
Red Hat Enterprise Linux
3.9 x86
Parametri aggiuntivi relativi al kernel del guest
I parametri aggiuntivi non sono necessari
Utilizzo dell'orologio paravirtualizzato con guest di Windows
Abilitare l'orologio paravirtualizzato sui guest di Windows modificando i parametri d'avvio.
Le impostazioni d'avvio di Windows sono conservate nel file boot.ini. Per abilitare l'orologio
paravirtualizzato aggiungere la seguente riga:
/use pmtimer
Per maggiori informazioni sulle impostazioni d'avvio di Windows e sull'opzione pmtimer consultare le
2
Opzioni di cambiamento disponibili per i file Boot.ini di Windows XP e Windows Server 2003 .
2
http://support.microsoft.com/kb/833721
147
148
Capitolo 12.
Migrazione Live KVM
Questo capitolo descrive la migrazione dei guest, in esecuzione su di un hypervisor KVM, su un host
KVM.
La migrazione è un processo usato per migrare un guest virtualizzato da un host all'altro. Esso
è una funzione importante della virtualizzazione in quanto il software è completamente separato
dall'hardware. Il processo di migrazione è utile per:
• Load balancing - guests can be moved to hosts with lower usage when a host becomes overloaded.
• Hardware failover - when hardware devices on the host start to fail, guests can be safely relocated
so the host can be powered down and repaired.
• Energy saving - guests can be redistributed to other hosts and host systems powered off to save
energy and cut costs in low usage periods.
• Geographic migration - guests can be moved to another location for lower latency or in serious
circumstances.
I processi di migrazione possono essere live o offline. Per migrare i guest lo storage deve essere
condiviso. Il processo di migrazione consiste nell'invio della memoria dei guest all'host di destinazione.
Lo storage condiviso conserva il file system predefinito del guest. L'immagine del file system non viene
inviata sulla rete da un host sorgente all'host di destinazione.
An offline migration suspends the guest then moves an image of the guests memory to the destination
host. The guest is resumed on the destination host and the memory the guest used on the source host
is freed.
Il tempo necessario per una migrazione offline dipende dalla larghezza di banda della rete e dalla
latenza. Un guest con 2GB di memoria avrà bisogno di circa dieci secondi con un link Ethernet di 1
Gbit.
Una migrazione live mantiene il guest in esecuzione sull'host sorgente migrando la memoria
senza arrestare il guest. Tutte le pagine modificate della memoria sono monitorate ed inviate alla
destinazione durante l'invio dell'immagine. La memoria viene aggiornata con le pagine modificate.
Il processo continua fino a quando il tempo di pausa conferito al guest è uguale al tempo previsto
per il trasferimento delle ultime pagine. KVM è in grado di prevedere il tempo rimasto e cerca di
trasferire il numero massimo di pagine dall'origine alla destinazione fino a quando KVM prevede che
il numero delle pagine rimanenti può essere trasferito durante un breve arco di tempo entro il quale la
VM risulta sospesa. I registri vengono caricati sul nuovo host ed il guest viene ripristinato sull'host di
destinazione. Se non è possibile eseguire il merge del guest (tale comportamento si verifica quando
i guest sono sotto un carico molto elevato), il guest stesso viene sospeso e successivamente verrà
eseguita una migrazione offline.
Il tempo necessario per una migrazione offline dipende dalla larghezza di banda della rete e dalla
latenza. Se la rete viene utilizzata in maniera estesa o se in presenza di una larghezza di banda bassa
la migrazione avrà bisogno di più tempo.
12.1. Requisiti per una migrazione live
La migrazione dei guest richiede quanto segue:
149
Capitolo 12. Migrazione Live KVM
Requisiti per una migrazione
• Un guest virtualizzato installato su di uno storage 'networked' condiviso, e l'utilizzo di uno dei
seguenti protocolli:
• Fibre Channel
• iSCSI
• NFS
• GFS2
• Due o più sistemi Fedora della stessa versione con gli stessi aggiornamenti.
• Entrambi i sistemi dovranno avere porte appropriate aperte.
• I sistemi devono avere configurazioni di rete identiche. Tutte le configurazioni di rete ed il bridging
devono essere uguali su entrambi gli host.
• Lo storage condiviso deve essere montato sulla stessa posizione sui sistemi sorgente e di
destinazione. Il nome della directory montata deve essere identico.
Configurazione dello storage di rete
Configure shared storage and install a guest on the shared storage. For shared storage instructions,
refer to Capitolo 5, Storge condiviso e virtualizzazione.
Alternatively, use the NFS example in Sezione 12.2, «Esempio di storage condiviso: NFS per una
semplice migrazione».
12.2. Esempio di storage condiviso: NFS per una semplice
migrazione
In questo esempio viene utilizzato NFS per condividere le immagini del guest con altri host KVM. Il
suddetto esempio non è pratico per installazioni molto grandi, esso viene usato solo per dimostrare le
tecniche di migrazione e per implementazioni piccole. Non usare questo esempio per la migrazione o
l'esecuzione di numerosi guest virtualizzati.
For advanced and more robust shared storage instructions, refer to Capitolo 5, Storge condiviso e
virtualizzazione
1.
Esportare la cartella dell'immagine di libvirt
Aggiungere la directory dell'immagine predefinita al file /etc/exports:
/var/lib/libvirt/images *.bne.redhat.com(rw,no_root_squash,async)
Modificare il parametro degli host in modo appropriato per il vostro ambiente:
2.
Avvio NFS
a. Se non precedentemente fatto installare i pacchetti NFS:
# yum install nfs
150
Migrazione KVM live con virsh
b.
Aprire le porte per NFS in iptables ed aggiungere NFS nel file /etc/hosts.allow.
c.
Avviare il servizio NFS:
# service nfs start
3.
Montare lo storage predefinito sulla destinazione
Sul sistema di destinazione montare la cartella /var/lib/libvirt/images:
# mount sourceURL:/var/lib/libvirt/images /var/lib/libvirt/images
Le posizioni devono essere uguali sia sulla sorgente che
sulla destinazione
Qualsiasi cartella sia stata scelta per i guest essa deve essere la stessa sia sull'host
che sul guest. Ciò deve essere applicato su tutti i tipi di storage condivisi. Se la
cartella non risulta essere la stessa il processo di migrazione fallirà.
12.3. Migrazione KVM live con virsh
È possibile migrare un guest su di un host diverso attraverso il comando virsh. Il comando migrate
accetta i parametri nel seguente formato:
# virsh migrate --live GuestName DestinationURL
The GuestName parameter represents the name of the guest which you want to migrate.
The DestinationURL parameter is the URL or hostname of the destination system. The destination
system must run the same version of Fedora, be using the same hypervisor and have libvirt
running.
Once the command is entered you will be prompted for the root password of the destination system.
Esempio: migrazione live con virsh
In questo esempio viene eseguita una migrazione da test1.bne.redhat.com a
test2.bne.redhat.com. Modificare gli hostname per l'ambiente. Nell'esempio è riportata una
migrazione di una macchina virtuale chiamata CentOS4test.
This example assumes you have fully configured shared storage and meet all the prerequisites (listed
here: Requisiti per una migrazione).
1.
Verificare che il guest sia in esecuzione
Dal sistema d'origine, test1.bne.redhat.com, verificare che CentOS4test sia in
esecuzione:
[root@test1 ~]# virsh list
Id Name
State
----------------------------------
151
Capitolo 12. Migrazione Live KVM
10 CentOS4
2.
running
Migrare il guest
Eseguire il seguente comando per una migrazione live del guest per la destinazione
test2.bne.redhat.com. Aggiungere /system alla fine dell'URL di destinazione per indicare a
libvirt la necessità di avere un accesso completo.
# virsh migrate --live CentOS4test qemu+ssh://test2.bne.redhat.com/system
Once the command is entered you will be prompted for the root password of the destination
system.
3.
Attesa
La migrazione potrebbe richiedere qualche minuto a seconda del carico e della dimensione del
guest. virsh riporta solo gli errori. Il guest continua la sua esecuzione sull'host sorgente fino alla
migrazione completa.
4.
Verificare che il guest sia arrivato sull'host di destinazione
Dal sistema di destinazione, test2.bne.redhat.com, verificare che CentOS4test sia in
esecuzione:
[root@test2 ~]# virsh list
Id Name
State
---------------------------------10 CentOS4
running
La migrazione live è ora conclusa.
Altri metodi di networking
libvirt supports a variety of networking methods including TLS/SSL, unix sockets, SSH,
and unecrypted TCP. Refer to Capitolo 13, Gestione remota dei guest virtualizzati for
more information on using other methods.
12.4. Migrazione con virt-manager
Questa sezione si riferisce alla migrazione dei guest basati su KVM con virt-manager
1.
Eseguire il collegamento con gli host target e sorgente. Sul menu File, selezionare Aggiungi
collegamento, a questo punto verrà visualizzata la finestra Aggiungi collegamento.
Inserire le seguenti informazioni:
• Hypervisor: Selezionare QEMU.
• Collegamento: Selezionare il tipo di collegamento.
• Hostname: Inserire l'hostname.
Fare clic su Collega.
152
Migrazione con virt-manager
Il Virtual Machine Manager mostra un elenco di host collegati.
153
Capitolo 12. Migrazione Live KVM
2.
Aggiungere un gruppo di storage con lo stesso NFS sugli host sorgente e di destinazione.
Sul menu Modifica, selezionare Dettagli host, per visualizzare la finestra Dettagli host.
Fare clic sulla scheda Storage.
154
Migrazione con virt-manager
3.
Aggiungere un nuovo gruppo di storage. Nella parte bassa a sinistra della finestra fare clic sul
pulsante +. A questo punto verrà visualizzata la finestra Aggiungi un nuovo gruppo di storage.
Inserire le seguenti informazioni:
• Nome: Inserire il nome del gruppo per lo storage.
• Tipo: Selezionare netfs: Network Exported Directory.
155
Capitolo 12. Migrazione Live KVM
Fare clic su Avanti.
4.
Inserire le seguenti informazioni:
• Formato: Selezionare il tipo di storage. Esso deve essere NFS o iSCSI per migrazioni live.
• Host Name: Inserire l'indirizzo IP o il fully-qualified domain name del server di storage.
156
Migrazione con virt-manager
Fare clic su Fine.
5.
Creare un nuovo volume nel gruppo di storage condiviso, fare click su Nuovo Volume.
157
Capitolo 12. Migrazione Live KVM
6.
Inserite le informazioni necessarie e successivamente fare clic su Crea Volume.
7.
Creare una macchina virtuale con il nuovo volume e successivamente, eseguirla.
158
Migrazione con virt-manager
A questo punto verrà visualizzata la finestra della Macchina Virtuale.
8.
Nella finestra del Virtual Machine Manager, fare clic con il pulsante destro del mouse sulla
macchina virtuale e selezionare Migra, successivamente selezionare la posizione desiderata per
la migrazione.
159
Capitolo 12. Migrazione Live KVM
9.
Fare clic su Si per confermare la migrazione.
Il Virtual Machine Manager mostra la macchina virtuale nella nuova posizione.
160
Migrazione con virt-manager
La finestra del Virtual Machine Manager mostra la nuova posizione della macchina virtuale.
161
Capitolo 12. Migrazione Live KVM
162
Capitolo 13.
Gestione remota dei guest virtualizzati
Questa sezione affronta il modo attraverso il quale è possibile gestire in modo remoto i guest
virtualizzati utilizzando ssh o TLS e SSL.
13.1. Gestione remota con SSH
Il pacchetto ssh fornisce un protocollo di rete cifrato attraverso il quale è possibile inviare in modo
sicuro le funzioni di gestione ai server di virtualizzazione remoti. Il metodo descritto usa il libvirt
management connection attraverso un tunnel sicuro su di un collegamento SSH per la gestione delle
macchine remote. L'autenticazione viene fatta tramite la cifratura della chiave pubblica SSH e le
password, oppure tramite le frasi segrete raccolte dal vostro agent SSH locale. In aggiunta, la console
VNC per ogni macchina del guest virtuale verrà collegata a SSH tramite un tunnel.
SSH viene generalmente configurato per default, e per questo motivo dovreste essere in possesso
di una impostazione delle chiavi SSH, senza aver bisogno quindi di regole firewall aggiuntive per
accedere ai servizi di gestione o alla console VNC.
Be aware of the issues with using SSH for remotely managing your virtual machines, including:
• è necessario un accesso di root per le macchine remote per poter gestire le macchine virtuali,
• il processo d'impostazione per il collegamento iniziale potrebbe essere lento,
• non vi è alcun metodo standard per revocare una chiave dell'utente su tutti gli host o guest,
• e ssh non interagisce bene con un numero molto elevato di macchine remote.
Configurazione accesso SSH per virt-manager
Le seguenti informazioni presumono che l'utente stia iniziando da zero e che non sia in possesso di
una impostazione delle chiavi SSH.
1. Sarà necessario una coppia di chiavi pubbliche sulla macchina nella quale viene utilizzato virtmanager. Se ssh è stato precedentemente configurato allora si può saltare questo comando.
$ ssh-keygen -t rsa
2. Per eseguire un login remoto virt-manager avrà bisogno di una copia della chiave pubblica
su ogni macchina remota che eseuge libvirt. Copiare il file $HOME/.ssh/id_rsa.pub dalla
macchina da usare per la gestione remota tramite il comando scp:
$ scp $HOME/.ssh/id_rsa.pub root@somehost:/root/key-dan.pub
3. Una volta copiato il file utilizzare ssh per eseguire il collegamento alle macchine remote come
utente root, ed aggiungere il file copiato sull'elenco di chiavi autorizzate. Se l'utente root presente
sull'host remoto non possiede un elenco di chiavi autorizzate, assicurarsi che i permessi del file
siano stati impostati correttamente
$ ssh root@somehost
# mkdir /root/.ssh
163
Capitolo 13. Gestione remota dei guest virtualizzati
# chmod go-rwx /root/.ssh
# cat /root/key-dan.pub >> /root/.ssh/authorized_keys
# chmod go-rw /root/.ssh/authorized_keys
Il demone libvirt (libvirtd)
Il demone libvirt fornisce un interfaccia per la gestione delle macchine virtuali. È necessario aver
installato il demone libvirtd ed eseguirlo su ogni host remoto che si desidera gestire.
$ ssh root@somehost
# chkconfig libvirtd on
# service libvirtd start
Dopo aver configurato sia libvirtd che SSH, si è in grado di accedere in modo remoto alle proprie
macchine virtuali. A questo punto sarà possibile accedere ai guest anche con VNC.
13.2. Gestione remota attraverso TLS e SSL
You can manage virtual machines using TLS and SSL. TLS and SSL provides greater scalability but
is more complicated than ssh (refer to Sezione 13.1, «Gestione remota con SSH»). TLS and SSL
is the same technology used by web browsers for secure connections. The libvirt management
connection opens a TCP port for incoming connections, which is securely encrypted and authenticated
based on x509 certificates. In addition the VNC console for each guest virtual machine will be setup to
use TLS with x509 certificate authentication.
Utilizzando questo metodo non sarà necessario conferire agli utenti alcun account della shell sulle
macchine remote gestite. Tuttavia saranno necessarie regole firewall aggiuntive per accedere al
servizio di gestione o alla console VNC. È possibile utilizzare gli elenchi di revoca del certificato per
revocare l'accesso agli utenti.
Fasi necessarie per l'impostazione dell'accesso TLS/SSL per virt-manager
Questa breve guida presume che l'utente stia iniziando da zero e che non sia in possesso di alcuna
conoscenza del certificato TLS/SSL. Se si è fortunati da avere un server per la gestione del certificato
si possono saltare le prime fasi.
Impostazione del server di libvirt
Per maggiori informazioni su come creare i certificati consultare il sito web di libvirt, http://
libvirt.org/remote.html.
Server VNC di Xen
È possibile abilitare TLS sul server VNC di Xen attraverso la modifica del file di configurazione, /
etc/xen/xend-config.sxp. Rimuovere il commento sul parametro di configurazione (vnctls 1) all'interno del file di configurazione.
The /etc/xen/vnc directory needs the following 3 files:
• ca-cert.pem - The CA certificate
• server-cert.pem - The Server certificate signed by the CA
• server-key.pem - The server private key
164
Modalità di trasporto
This provides encryption of the data channel. It might be appropriate to require that clients
present their own x509 certificate as a form of authentication. To enable this remove the
commenting on the (vnc-x509-verify 1) parameter.
Impostazione client virsh e virt-manager
L'impostazione per i client è leggermente inconsistente in questo momento. Per abilitare l'API di
gestione libvirt tramite TLS, i certificati client e CA devono essere posizionati in /etc/pki.
Per informazioni consultare http://libvirt.org/remote.html
All'interno dell'interfaccia utente virt-manager utilizzare l'opzione del meccanismo di trasporto
SSL/TLS durante il collegamento ad un host.
Per virsh URI ha il seguente formato:
• qemu://hostname.guestname/system per KVM.
• xen://hostname.guestname/ per Xen.
Per abilitare SSL e TLS per VNC è necessario posizionare il certificate authority ed i certificati del
client in $HOME/.pki, quindi i seguenti file:
• CA o ca-cert.pem - Il certificato CA.
• libvirt-vnc o clientcert.pem - Il certificato del client firmato dal CA.
• libvirt-vnc o clientkey.pem - La chiave privata del client.
13.3. Modalità di trasporto
Per una gestione remota, libvirt supporta le seguenti modalità di trasporto:
Transport Layer Security (TLS)
Il Transport Layer Security TLS 1.0 (SSL 3.1) authenticated and encrypted TCP/IP socket è
generalmente in ascolto su di un numero di porta pubblica. Per il suo utilizzo sarà necessario generare
i certificati server e client. La porta standard è 16514.
Socket UNIX
I socket per il dominio Unix sono accessibili solo sulla macchina locale. I socket non sono cifrati ed
utilizzano i permessi UNIX o SELinux per l'autenticazione. I nomi standard per i socket sono /var/
run/libvirt/libvirt-sock e /var/run/libvirt/libvirt-sock-ro (per collegamenti di
sola-lettura).
SSH
Collegamento Transported over a Secure Shell protocol (SSH). Questo collegamento necessita di
Netcat (il pacchetto nc). Il demone di libvirt (libvirtd) deve essere in esecuzione sulla macchina
remota. La porta 22 deve essere aperta per permettere un accesso SSH. Sarà necessario utilizzare
una specie di gestione della chiave ssh (per esempio, ssh-agent) in caso contrario vi sarà richiesta
una password.
165
Capitolo 13. Gestione remota dei guest virtualizzati
ext
Il parametro ext viene usato per qualsiasi programma esterno in grado di creare una connessione alla
macchina remota esternamente a libvirt. Tale operazione generalmente interessa applicazioni non
supportate di sicurezza e third-party.
tcp
Socket TCP/IP non cifrato. Non consigliati per un loro utilizzo in ambienti di produzione, esso è
normalmente disabilitato, ma un amministratore sarà in grado di abilitarlo per operazioni di test o per
un suo utilzzo su reti fidate. La porta predefinita è 16509.
Il trasporto predefinito se non diversamente indicato è tls.
URI remoti
A Uniform Resource Identifier (URI) is used by virsh and libvirt to connect
to a remote host. URIs can also be used with the --connect parameter for
the virsh command to execute single commands or migrations on remote hosts.
libvirt URIs take the general form (content in square brackets, "[]", represents optional functions):
driver[+transport]://[username@][hostname][:port]/[path][?extraparameters]
È necessario fornire il metodo di trasporto o l'hostname per poter distinguerlo da un URI locale.
Esempi di parametri di gestione remota
• Collegamento ad un hypervisor Xen remoto sull'host towada, usando un trasporto SSH ed il nome
utente SSH ccurran.
xen+ssh://ccurran@towada/
• Collegamento ad un hypervisor Xen remoto sull'host towada utilizzando TLS.
xen://towada/
• Collegamento ad un hypervisor Xen remoto sull'host towada usando TLS. Il parametro
no_verify=1 indica a libvirt di non verificare il certificato del server.
xen://towada/?no_verify=1
• Collegamento ad un hypervisor KVM remoto sull'host towada usando SSH.
qemu+ssh://towada/system
166
Modalità di trasporto
Esempi di test
• Collegamento ad un hypervisor KVM locale con un socket UNIX non standard. Il percorso completo
per il socket Unix in questo caso viene esplicitamente fornito.
qemu+unix:///system?socket=/opt/libvirt/run/libvirt/libvirt-sock
• Collegamento al demone libvirt con un collegamento TCP/IP non cifrato per il server con un
indirizzo IP 10.1.1.10 sulla porta 5000. Verrà utilizzato il test driver con le impostazioni predefinite.
test+tcp://10.1.1.10:5000/default
Parametri URI aggiuntivi
Extra parameters can be appended to remote URIs. The table below Tabella 13.1, «Parametri URI
aggiuntivi» covers the recognized parameters. All other parameters are ignored. Note that parameter
values must be URI-escaped (that is, a question mark (?) is appended before the parameter and
special characters are converted into the URI format).
Nome
Modalità di trasporto
Description
Esempio di utilizzo
name
tutte le modalità
Il nome passato
name=qemu:///system
alla funzione
virConnectOpen
remota. Esso è
formato generalmente
rimuovendo il trasporto,
il nome utente, il
numero della porta,
l'hostname ed i
parametri aggiuntivi
dall'URI remoto,
ma in alcuni casi
molto complessi
è meglio conferire
esplicitamente il nome.
comando
ssh e ext
Il comando esterno.
Per il trasporto ext
questo è necessario.
Per ssh l'impostazione
predefinita è ssh.
Per il comando viene
eseguita la ricerca del
PATH.
command=/opt/
openssh/bin/ssh
socket
unix e ssh
Il percorso per il socket
del dominio UNIX il
quale sovrascrive
l'impostazione
predefinita. Per il
trasporto ssh, esso
socket=/opt/libvirt/run/
libvirt/libvirt-sock
167
Capitolo 13. Gestione remota dei guest virtualizzati
Nome
Modalità di trasporto
Description
Esempio di utilizzo
viene passato al
comando netcat
remoto (consultare
netcat).
netcat
ssh
Il nome del comando
netcat=/opt/netcat/bin/
netcat sulla macchina
nc
remota. L'impostazione
predefinita è nc. Per
il trasporto ssh, libvirt
crea un comando ssh
il quale è simile al
seguente: command
-p port [-l username]
hostname netcat
-U socket dove
porta, nome utente,
hostname possono
essere specificati come
parte dell'URI remoto,
e comando, netcat e
socket provengono da
parametri aggiuntivi
(o impostazioni
predefinite sensibili).
no_verify
tls
Se impostato su di un
valore diverso da zero
verranno disabilitati i
controlli del certificato
del server. Da notare
che per disabilitare
i controlli server
del certificato del
client o indirizzo IP, è
necessario modificare
la configurazione di
libvirtd.
no_verify=1
no_tty
ssh
Se impostato su di un
valore diverso da zero
ssh non richiederà più
alcuna password se
non riesce ad eseguire
automaticamente
un log in su di una
macchina remota
(per l'utilizzo di sshagent o simile). Da
usare quando non
si è in possesso
di un accesso ad
no_tty=1
168
Modalità di trasporto
Nome
Modalità di trasporto
Description
Esempio di utilizzo
un terminale - per
esempio in programmi
grafici che utilizzano
libvirt.
Tabella 13.1. Parametri URI aggiuntivi
169
170
Parte IV. Virtualization
Reference Guide
I comandi per la virtualizzazione, gli
strumenti del sistema, le applicazioni
e riferimenti aggiuntivi dei sistemi
Questi capitoli forniscono una descrizione dettagliata dei comandi per la virtualizzazione, strumenti
del sistema e applicazioni presenti in Fedora. Gli utenti che desiderano avere informazioni sulle
funzionalità avanzate dovrebbero consultare i suddetti capitoli.
Capitolo 14.
Strumenti per la virtualizzazione
Di seguito viene riportato un elenco di strumenti per la gestione della virtualizzazione, del debugging
ed il networking utili per i sistemi che eseguono Xen.
Strumenti di amministrazione del sistema
• vmstat
• iostat
• lsof
# lsof -i :5900
xen-vncfb 10635
root
5u
IPv4 218738
TCP grumble.boston.redhat.com:5900 (LISTEN)
• qemu-img
Strumenti di debugging avanzato
• systemTap
• crash
• xen-gdbserver
• sysrq
• sysrq t
• sysrq w
• sysrq c
Networking
brtcl
•
# brctl show
bridge name bridge id
xenbr0
8000.feffffffffff
pdummy0
STP enabled
no
interfaces
vif13.0
vif0.0
•
•
# brctl showmacs xenbr0
port no mac addr
1
fe:ff:ff:ff:ff:ff
is local?
yes
# brctl showstp xenbr0
xenbr0
bridge id
8000.feffffffffff
designated root
8000.feffffffffff
root port
0
max age
20.00
hello time
2.00
aging timer
0.00
path cost
bridge max age
bridge hello time
0
20.00
2.00
173
Capitolo 14. Strumenti per la virtualizzazione
forward delay
0.00
aging time
300.01
hello timer
1.43
topology change timer 0.00
flags
0.00
tcn timer
gc timer
0.00
0.02
vif13.0 (3)
port id
designated root
designated bridge
designated port
designated cost
flags
8003
8000.feffffffffff
8000.feffffffffff
8003
0
state
path cost
message age timer
forward delay timer
hold timer
forwarding
100
0.00
0.00
0.43
pdummy0 (2)
port id
designated root
designated bridge
designated port
designated cost
flags
8002
8000.feffffffffff
8000.feffffffffff
8002
0
state
path cost
message age timer
forward delay timer
hold timer
forwarding
100
0.00
0.00
0.43
vif0.0 (1)
port id
designated
designated
designated
designated
flags
8001
8000.feffffffffff
8000.feffffffffff
8001
0
state
path cost
message age timer
forward delay timer
hold timer
forwarding
100
0.00
0.00
0.43
• ifconfig
• tcpdump
Tool di KVM
• ps
• pstree
• top
• kvmtrace
• kvm_stat
Xen tools
• xentop
• xm dmesg
• xm log
174
bridge forward delay
root
bridge
port
cost
Capitolo 15.
Gestione dei guest con virsh
virsh è uno strumento dell'interfaccia della linea di comando per la gestione dei guest e
dell'hypervisor.
Lo strumento virsh è stato creato considerando l'API di gestione libvirt e funziona come
alternativa allo strumento xm e al graphical guest Manager (virt-manager). Gli utenti non
privilegiati possono usare virsh per operazioni di sola lettura. Utilizzare virsh per eseguire gli script
per le macchine del guest.
riferimento rapido del comando virsh
Le seguenti tabelle forniscono un riferimento rapido per tutte le opzioni della linea di comando di virsh:
Comando
Description
help
Visualizza le informazioni di base d'aiuto.
list
Elenca tutti i guest.
dumpxml
Esegue l'output del file di configurazione XML
per il guest.
create
Crea un guest da un file di configurazione XML
ed avvia il nuovo guest.
start
Avvia un guest inattivo.
destroy
Forza l'arresto di un guest.
define
Esegue un output di un file di configurazione
XML per un guest.
domid
Mostra l'ID del guest.
domuuid
Mostra l'UUID del guest.
dominfo
Mostra le informazioni del guest.
domname
Mostra il nome del guest.
domstate
Mostra lo stato di un guest.
quit
Esce dal terminale interattivo.
reboot
Riavvia un guest.
restore
Ripristina una sessione del guest
precedentemente salvata in un file.
resume
Ripristina un guest in pausa.
save
Salva lo stato corrente di un guest su di un file.
shutdown
Arresta correttamente (gracefully) un guest.
suspend
Mette in pausa un guest.
undefine
Cancella tutti i file associati con un guest.
migrate
Migra un guest su di un altro host.
Tabella 15.1. Comandi di gestione delle risorse
Le seguenti opzioni del comando virsh sono utilizzate per gestire le risorse dell'hypervisor e del
guest:
175
Capitolo 15. Gestione dei guest con virsh
Comando
Description
setmem
Imposta la memoria assegnata per un guest.
setmaxmem
Imposta il limite massimo della memoria per
l'hypervisor.
setvcpus
Modifica il numero di CPU virtuali assegnate per
un guest.
vcpuinfo
Mostra le informazioni della CPU virtuale di un
guest.
vcpupin
Controlla l'affinità della CPU virtuale di un guest.
domblkstat
Mostra le statistiche relative al dispositivo a
blocchi per un guest in esecuzione.
domifstat
Mostra le statistiche relative all'interfaccia di rete
per un guest in esecuzione.
attach-device
Collega un dispositivo ad un guest usando una
definizione del dispositivo in un file XML.
attach-disk
Collega un nuovo dispositivo a disco ad un
guest.
attach-interface
Collega una nuova interfaccia di rete ad un
guest.
detach-device
Scollega un dispositivo da un guest, accetta lo
stesso tipo di descrizione XML come il comando
attach-device.
detach-disk
Scollega un dispositivo a disco da un guest.
detach-interface
Scollega l'interfaccia di rete da un guest.
Tabella 15.2. Opzioni di gestione delle risorse
Di seguito vengono elencate le opzioni varie di virsh:
Comando
Description
version
Mostra la versione di virsh
nodeinfo
Esegue l'output delle informazioni sull'hypervisor
Tabella 15.3. Opzioni varie
Collegamento ad un hypervisor
Per collegarsi ad una sessione dell'hypervisor con virsh :
# virsh connect {hostname OR URL}
Where <name> is the machine name of the hypervisor. To initiate a read-only connection, append the
above command with -readonly.
Creazione dump XML di una macchina virtuale (file di configurazione)
Esegue un output del file di configurazione XML con virsh:
176
# virsh dumpxml {domain-id, domain-name or domain-uuid}
This command outputs the guest's XML configuration file to standard out (stdout). You can save the
data by piping the output to a file. An example of piping the output to a file called guest.xml:
# virsh dumpxml GuestID > guest.xml
This file guest.xml can recreate the guest (refer to Come modificare un file di configurazione del
guest. You can edit this XML configuration file to configure additional devices or to deploy additional
guests. Refer to Sezione 18.1, «Come utilizzare i file di configurazione XML con virsh» for more
information on modifying files created with virsh dumpxml.
Un esempio di output virsh dumpxml:
# virsh dumpxml r5b2-mySQL01
<domain type='xen' id='13'>
<name>r5b2-mySQL01</name>
<uuid>4a4c59a7ee3fc78196e4288f2862f011</uuid>
<bootloader>/usr/bin/pygrub</bootloader>
<os>
<type>linux</type>
<kernel>/var/lib/libvirt/vmlinuz.2dgnU_</kernel>
<initrd>/var/lib/libvirt/initrd.UQafMw</initrd>
<cmdline>ro root=/dev/VolGroup00/LogVol00 rhgb quiet</cmdline>
</os>
<memory>512000</memory>
<vcpu>1</vcpu>
<on_poweroff>destroy</on_poweroff>
<on_reboot>restart</on_reboot>
<on_crash>restart</on_crash>
<devices>
<interface type='bridge'>
<source bridge='xenbr0'/>
<mac address='00:16:3e:49:1d:11'/>
<script path='vif-bridge'/>
</interface>
<graphics type='vnc' port='5900'/>
<console tty='/dev/pts/4'/>
</devices>
</domain>
Come creare un guest da un file di configurazione
Guests can be created from XML configuration files. You can copy existing XML from previously
created guests or use the dumpxml option (refer to Creazione dump XML di una macchina virtuale
(file di configurazione)). To create a guest with virsh from an XML file:
# virsh create configuration_file.xml
Come modificare un file di configurazione del guest
Instead of using the dumpxml option (refer to Creazione dump XML di una macchina virtuale (file di
configurazione)) guests can be edited either while they run or while they are offline. The virsh edit
command provides this functionality. For example, to edit the guest named softwaretesting:
177
Capitolo 15. Gestione dei guest con virsh
# virsh edit softwaretesting
Così facendo si aprirà un editor di testo. L'editor di testo predefinito è il parametro della shell $EDITOR
(impostato per default su vi).
Sospensione di un guest
Per sospendere un guest con virsh:
# virsh suspend {domain-id, domain-name or domain-uuid}
When a guest is in a suspended state, it consumes system RAM but not processor resources. Disk
and network I/O does not occur while the guest is suspended. This operation is immediate and the
guest can be restarted with the resume (Ripristino di un guest) option.
Ripristino di un guest
Per ripristinare un guest sospeso con virsh con l'opzione resume:
# virsh resume {domain-id, domain-name or domain-uuid}
Questa operazione è immediata ed i parametri del guest vengono preservati per operazioni suspend
e resume.
Come salvare un guest
Per salvare lo stato attuale di un guest su di un file usando il comando virsh:
# virsh save {domain-name, domain-id or domain-uuid} filename
This stops the guest you specify and saves the data to a file, which may take some time given the
amount of memory in use by your guest. You can restore the state of the guest with the restore
(Ripristino di un guest) option. Save is similar to pause, instead of just pausing a guest the present
state of the guest is saved.
Ripristino di un guest
Restore a guest previously saved with the virsh save command (Come salvare un guest) using
virsh:
# virsh restore filename
Tale operazione riavvia il guest salvato. Il nome e l'UUID del guest vengono conservati, ma assegnati
per un nuovo id.
Come arrestare un guest
Per arrestare un guest usando il comando virsh:
# virsh shutdown {domain-id, domain-name or domain-uuid}
178
È possibile controllare il comportamento del guest durante l'avvio modificando il parametro
on_shutdown nel file di configurazione del guest.
Riavvio di un guest
Riavvio di un guest con il comando virsh:
#virsh reboot {domain-id, domain-name or domain-uuid}
È possibile controllare il comportamento del guest durante l'avvio modificando il parametro
on_reboot del file di configurazione del guest.
Come forzare l'arresto di un guest
Per forzare l'arresto di un guest con il comando virsh:
# virsh destroy {domain-id, domain-name or domain-uuid}
This command does an immediate ungraceful shutdown and stops the specified guest. Using
virsh destroy can corrupt guest file systems . Use the destroy option only when the guest
is unresponsive. For para-virtualized guests, use the shutdown option(Come arrestare un guest)
instead.
Come ottenere un domain ID di un guest
Per ottenere un domain ID di un guest:
# virsh domid {domain-name or domain-uuid}
Come ottenere il nome del dominio di un guest
Per ottenere il nome del dominio di un guest:
# virsh domname {domain-id or domain-uuid}
Come ottenere l'UUID di un guest
Per ottenere un Universally Unique Identifier (UUID) per un guest:
# virsh domuuid {domain-id or domain-name}
Un esempio di output di virsh domuuid:
# virsh domuuid r5b2-mySQL01
4a4c59a7-ee3f-c781-96e4-288f2862f011
Visualizzazione informazioni del guest
Usando virsh con domain ID del guest, nome del dominio o UUID è possibile mostrare le
informazioni sul guest specifico:
179
Capitolo 15. Gestione dei guest con virsh
# virsh dominfo {domain-id, domain-name or domain-uuid}
Esempio di output virsh dominfo:
# virsh dominfo r5b2-mySQL01
id:
13
name:
r5b2-mysql01
uuid:
4a4c59a7-ee3f-c781-96e4-288f2862f011
os type:
linux
state:
blocked
cpu(s):
1
cpu time:
11.0s
max memory:
512000 kb
used memory:
512000 kb
Visualizzazione informazioni relative all'host
Per mostrare le informazioni sull'host:
# virsh nodeinfo
Un esempio di output di virsh nodeinfo:
# virsh nodeinfo
CPU model
CPU (s)
CPU frequency
CPU socket(s)
Core(s) per socket
Threads per core:
Numa cell(s)
Memory size:
x86_64
8
2895 Mhz
2
2
2
1
1046528 kb
Così facendo vengono riportate le informazioni del nodo, e le macchine che supportano il processo di
virtualizzazione.
Visualizzazione dei guest
Per visualizzare l'elenco dei guest e dei rispettivi stati con virsh:
# virsh list
Altre opzioni disponibili includono:
l'opzione --inactive elenca i guest inattivi (i guest definiti ma non ancora attivi) e
l'opzione --all elenca tutti i guest. Per esempio:
# virsh list --all
Id Name
State
---------------------------------0 Domain-0
running
1 Domain202
paused
180
2 Domain010
3 Domain9600
inactive
crashed
L'output di virsh list viene categorizzato come uno di sei stati (di seguito riportati).
• Lo stato running si riferisce ai guest attualmente attivi su di una CPU.
• I guest elencati come blocked sono bloccati e non risultano essere in esecuzione e non possono
essere eseguiti. Tale comportamento è dovuto a causa di un guest in attesa sull'I/O (uno stato di
attesa tradizionale), o se i guest sono in pausa 'sleep mode'.
• Lo stato paused elenca i domini che sono in pausa. Tale comportamento si verifica se un
amministratore usa il pulsante pause in virt-manager, xm pause o virsh suspend. Quando
un guest è in uno stato di pausa esso continuerà a consumare memoria ed altre risorse, pur
essendo non eleggibile per una sua programmazione o per le risorse dell'hypervisor.
• Lo stato shutdown è per i guest in procinto di spegnersi. In questo caso verrà inviato al guest
un segnale di spegnimento abilitando un processo di spegnimento corretto delle proprie funzioni.
Tale procedura potrebbe non funzionare con tutti i sistemi operativi guest; infatti alcuni di essi non
rispondono a tali segnali.
• I domini in uno stato dying sono domini 'morenti', ciò significa che il dominio non è ancora stato
completamente arrestato.
• I guest crashed sono guest che hanno fallito durante la loro esecuzione. Questo stato si verifica
solo se il guest è stato configurato in modo da non eseguire il riavvio dopo un crash.
Visualizzazione informazioni della CPU virtuale
Per visualizzare le informazioni della CPU virtuale da un guest con virsh:
# virsh vcpuinfo {domain-id, domain-name or domain-uuid}
Un esempio di output virsh vcpuinfo:
# virsh vcpuinfo r5b2-mySQL01
VCPU:
0
CPU:
0
State:
blocked
CPU time:
0.0s
CPU Affinity:
yy
Configurazione affinità CPU virtuale
Per configurare l'affinità delle CPU virtuali con CPU fisiche:
# virsh vcpupin {domain-id, domain-name or domain-uuid} vcpu, cpulist
Dove vcpu è il numero della VCPU virtuale e cpulist elenca il numero fisico delle CPU.
Configurazione conteggio delle CPU virtuali
Per modificare il numero delle CPU assegnate ad un guest con virsh:
181
Capitolo 15. Gestione dei guest con virsh
# virsh setvcpus {domain-name, domain-id or domain-uuid} count
Il nuovo valore count non può eccedere il valore del count specificato durante la creazione del guest.
Configurazione dell'assegnazione della memoria
Per modificare l'assegnazione della memoria del guest con virsh :
# virsh setmem {domain-id or domain-name} count
Specificare count in kilobyte. Da notare che il nuovo conteggio non può eccedere la quantità
specificata durante la creazione del guest. I valori più bassi di 64MB probabilmente non funzioneranno
con la maggior parte dei sistemi operativi del guest. La memoria massima non interesserà il guest
attivo se il nuovo valore non è più basso, in tal caso ne deriva una diminuzione dell'utilizzo della
memoria.
Visualizzazione informazioni del dispositivo a blocchi del guest
Usare virsh domblkstat per mostrare le statistiche dei dispositivi a blocchi per un guest in
esecuzione.
# virsh domblkstat GuestName block-device
Visualizzazione informazioni del dispositivo di rete del guest
Usare virsh domifstat per visualizzare le statistiche dell'interfaccia di rete per un guest in
esecuzione.
# virsh domifstat GuestName interface-device
Migrazione dei guest con virsh
È possibile migrare un guest su di un altro host con virsh. Migrare il dominio su di un altro host.
Aggiungere --live per una migrazione live. Il comando migrate accetta i parametri nel seguente
formato:
# virsh migrate --live GuestName DestinationURL
Il parametro --live è facoltativo. Aggiungere il parametro --live per le migrazioni live.
The GuestName parameter represents the name of the guest which you want to migrate.
The DestinationURL parameter is the URL or hostname of the destination system. The destination
system must run the same version of Fedora, be using the same hypervisor and have libvirt
running.
Once the command is entered you will be prompted for the root password of the destination system.
Gestione reti virtuali
Questa sezione affronta la gestione delle reti virtuali con il comando virsh. Per elencare le reti
virtuali:
182
# virsh net-list
Questo comando genera un output simile a:
# virsh net-list
Name
State
Autostart
----------------------------------------default
active
yes
vnet1
active
yes
vnet2
active
yes
Per visualizzare le informazioni di rete per una rete virtuale specifica:
# virsh net-dumpxml NetworkName
Così facendo verranno mostrate le informazioni relative ad una rete virtuale specifica in formato XML:
# virsh net-dumpxml vnet1
<network>
<name>vnet1</name>
<uuid>98361b46-1581-acb7-1643-85a412626e70</uuid>
<forward dev='eth0'/>
<bridge name='vnet0' stp='on' forwardDelay='0' />
<ip address='192.168.100.1' netmask='255.255.255.0'>
<dhcp>
<range start='192.168.100.128' end='192.168.100.254' />
</dhcp>
</ip>
</network>
Altri comandi virsh utilizzati per la gestione di reti virtuali sono:
• virsh net-autostart network-name — Avvia automaticamente una rete specificata come
network-name.
• virsh net-create XMLfile — genera ed avvia una nuova rete utilizzando un file XML già
esistente.
• virsh net-define XMLfile — genera un nuovo dispositivo di rete da un file XML esistente
senza avviarlo.
• virsh net-destroy network-name — annulla una rete specificata come network-name.
• virsh net-name networkUUID — converte un networkUUID specifico in un nome della rete.
• virsh net-uuid network-name — converte un network-name specificato in un UUID della
rete.
• virsh net-start nameOfInactiveNetwork — avvia una rete inattiva.
• virsh net-undefine nameOfInactiveNetwork — rimuove la definizione di una rete inattiva.
183
184
Capitolo 16.
Gestione dei guest con Virtual Machine
Manager (virt-manager)
Questa sezione descrive le finestre del Virtual Machine Manager (virt-manager), le caselle di
dialogo ed i vari controlli GUI.
virt-manager fornisce una visuale grafica degli hyparvisor e del guest sul sistema e sulle macchine
remote. Per definire i guest paravirtualizzati e completamente virtualizzati è possibile utilizzare virtmanager. virt-manager è in grado di eseguire compiti di gestione della virtualizzazione incluso:
• assegnazione della memoria
• assegnazione delle CPU virtuali
• controllo prestazioni operative,
• processi di salvataggio e ripristino, pausa e riavvio, arresto ed avvio dei guest virtualizzati,
• collega alle console grafiche e di testo, e
• alle migrazioni live e offline.
16.1. La finestra apri collegamento
Questa finestra viene visualizzata per prima e richiede all'utente di scegliere una sessione per
l'hypervisor. Gli utenti non privilegiati possono iniziare una sessione di sola-lettura. Gli utenti root
saranno in grado di iniziare una sessione di lettura-scrittura. Per utenti normali selezionare l'opzione
Host Xen locale o QEMU (per KVM).
185
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
Figura 16.1. Finestra di collegamento del Virtual Machine Manager
16.2. Finestra principale del Virtual Machine Manager
Questa finestra principale visualizza tutte le macchine virtuali in esecuzione, insieme alle risorse ad
esse assegnate (incluso il domain0), è altresì possibile visualizzare il campo desiderato. Facendo
doppio clic sulla macchina virtuale desiderata, si è in grado di visualizzare la console relativa alla
macchina interessata. Selezionando una macchina virtuale e facendo doppio clic sul pulsante
Dettagli , si visualizzeranno le informazioni relative alla macchina interessata. Per creare una nuova
macchina virtuale utilizzare il menu File .
186
Finestra delle informazioni del Virtual Machine Manager
Figura 16.2. Finestra principale del Virtual Machine Manager
16.3. Finestra delle informazioni del Virtual Machine
Manager
Questa finestra contiene i grafici e le statistiche dei dati relativi all'uso delle risorse live di un guest
disponibili su virt-manager. Il campo UUID mostra l'identificatore unico globale per le macchine
virtuali.
187
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
Figura 16.3. finestra dei dettagli di virt-manager
16.4. Console grafica della macchina virtuale
Questa finestra mostra una console grafica della macchina virtuale. I guest paravirtualizzati
e completamente virtualizati utilizzano tecniche diverse per esportare i rispettivi framebuffer
virtuali locali, ma entrambe le tecnologie utilizzano VNC per renderli disponibili alla finestra della
console del Virtual Machine Manager. Se la macchina virtuale è impostata in modo da richiedere
un'autenticazione, la console grafica della macchina virtuale richiederà l'utilizzo di una password prima
di visualizzare il display.
188
Starting virt-manager
Figura 16.4. Finestra console grafica
Nota sulla sicurezza e su VNC
VNC viene considerato non sicuro da numerosi esperti del settore, tuttavia sono state
eseguite diverse modifiche per permettere l'uso sicuro di VNC per la virtualizzazione su
Fedora. Le macchine guest sono in ascolto solo per l'indirizzo loopback dell'host locale
(dom0) (127.0.0.1). Tale comportamento assicura l'accesso a virt-manager ed alla
macchina virtuale attraverso VNC, solo a coloro che possiedono privilegi per la shell.
Remote administration can be performed following the instructions in Capitolo 13,
Gestione remota dei guest virtualizzati. TLS can provide enterprise level security for
managing guest and host systems.
Il proprio desktop locale è in grado di intercettare le diverse combinazioni di tasti (per esempio, Ctrl
+Alt+F11), in modo da evitare il loro invio alla macchina guest. È possibile utilizzare la capacità dello
'sticky key' virt-manager per inviare le suddette sequenze. È necessario premere qualsiasi tasto
modificatore (come Ctrl o Alt) 3 volte, così facendo il tasto specificato verrà considerato attivo fino a
quando non verrà premuto il modificatore successivo. A questo punto sarà possibile inviare Ctrl-AltF11 al guest inserendo la sequenza dei tasti 'Ctrl Ctrl Ctrl Alt+F1'.
16.5. Starting virt-manager
Per avviare la sessione virt-manager aprire il menu Applicazioni fare clic su Strumenti di
sistema e selezionare Virtual Machine Manager(virt-manager).
Apparirà la finestra principale del virt-manager.
189
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
Figura 16.5. Avvio di virt-manager
Alternatively, virt-manager can be started remotely using ssh as demonstrated in the following
command:
ssh -X host's address[remotehost]# virt-manager
Using ssh to manage virtual machines and hosts is discussed further in Sezione 13.1, «Gestione
remota con SSH».
16.6. Ripristino di una macchina salvata
Dopo aver avviato il Virtual Machine Manager, tutte le macchine virtuali sul sistema verranno
visualizzate nella finestra principale. Domain0 è il sistema host. Se non è presente alcuna macchina,
ciò indicherà che nessuna macchina è in esecuzione sul sistema.
Per ripristinare una sessione precedentemente salvata:
190
Visualizzazione delle informazioni sul guest
1.
Dal menu File, selezionare Ripristina una macchina salvata.
Figura 16.6. Ripristino di una macchina virtuale
2.
Apparirà la finestra principale di Ripristina macchina virtuale.
3.
Andare nella cartella corretta e selezionare il file della sessione salvata.
4.
Fare clic su Apri.
A questo punto apparirà il sistema virtuale salvato all'interno della finestra principale del Virtual
Machine Manager.
Figura 16.7. Una sessione del virtual machine manager ripristinata
16.7. Visualizzazione delle informazioni sul guest
È possibile utilizzare il monitor della macchina virtuale, per visualizzare le informazioni dei dati
riguardanti le attività di qualsiasi macchina virtuale presente sul sistema.
Per visualizzare le informazioni di un sistema virtuale:
191
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
1.
Nella finestra principale del Virtual Machine Manager, selezionare la macchina virtuale che si
desidera visualizzare.
Figura 16.8. Selezione di una macchina virtuale da visualizzare
2.
Dal menu Modifica del Virtual Machine Manager, selezionare Dettagli macchina (oppure fare
clic sul pulsante Dettagli, nella parte bassa della finestra principale del Virtual Machine Manager).
Figura 16.9. Visualizzazione menu dettagli della macchina virtuale
Visualizzazione finestra Panoramica dettagli della macchina virtuale. Questa finestra riassume
l'utilizzo della memoria e della CPU per i domini specificati.
192
Visualizzazione delle informazioni sul guest
Figura 16.10. Visualizzazione panoramica dettagli del guest
3.
Nella finestra dei Dettagli della macchina virtuale fare clic su Hardware .
A questo punto si è in grado di visualizzare la finestra Hardware dettagli della macchina
virtuale.
193
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
Figura 16.11. Visualizzazione informazioni hardware del guest
194
Visualizzazione delle informazioni sul guest
4.
Sulla tabella Hardware fare clic su Processore per visualizzare o modificare l'assegnazione
corrente del processore.
Figura 16.12. Pannello assegnazione del processore
5.
Sulla tabella Hardware, fare clic su Memoria per visualizzare o modificare l'assegnazione della
memoria RAM corrente.
Figura 16.13. Visualizzazione assegnazione della memoria
195
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
6.
Sulla tabella Hardware, fare clic su Disco per visualizzare o modificare la configurazione
corrente del disco fisso.
Figura 16.14. Visualizzazione configurazione del disco
7.
Sulla tabella Hardware, fare clic su Rete per visualizzare o modificare la configurazione di rete
corrente.
Figura 16.15. Visualizzazione configurazione di rete
16.8. Monitoraggio dello stato
È possibile utilizzare il Virtual Machine Manager per modificare lo Status monitoring del sistema
virtuale.
196
Monitoraggio dello stato
Per configurare lo Status monitoring ed abilitare le console:
1.
Dal menu Modifica, selezionare Preferenze.
Figura 16.16. Modifica preferenze del guest
Verrà visualizzata la finestra preferenze del Virtual Machine Manager.
197
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
2.
Dalla casella di selezione dello Status monitoring, specificare il periodo (in secondi) che il sistema
deve aggiornare.
Figura 16.17. Configurazione monitoraggio dello stato
3.
Dall'area della console, specificare come aprire una console insieme al dispositivo input.
16.9. Visualizzazione degli identificatori del guest
Per visualizzare il guest ID per tutte le macchine virtuali presenti sul sistema:
198
Visualizzazione degli identificatori del guest
1.
Dal menu Visualizza, selezionare la casella Domain ID.
Figura 16.18. Visualizzazione dei guest ID
2.
Il Virtual Machine Manager elenca gli ID del dominio per tutti i domini sul sistema.
Figura 16.19. Visualizzazione degli ID del dominio
199
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
16.10. Visualizzazione dello stato del guest
Per visualizzare lo stato di tutte le macchine virtuali sul sistema:
1.
Dal menu Visualizza, selezionare la casella Stato.
Figura 16.20. Selezione dello stato di una macchina virtuale
2.
Il Virtual Machine Manager elenca lo stato di tutte le macchine virtuali presenti sul sistema.
Figura 16.21. Visualizzazione dello stato di una macchina virtuale
200
Visualizzazione delle CPU virtuali
16.11. Visualizzazione delle CPU virtuali
Per visualizzare il numero delle CPU virtuali per tutte le macchine virtuali sul sistema:
1.
Dal menu Visualizza, selezionare la casella CPU virtuali.
Figura 16.22. Selezione dell'opzione delle CPU virtuali
2.
Il Virtual Machine Manager elenca le CPU virtuali per tutte le macchine virtuali presenti sul
sistema.
Figura 16.23. Visualizzazione delle CPU virtuali
201
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
16.12. Visualizzazione utilizzo della CPU
Per visualizzare l'utilizzo della CPU per tutte le macchine virtuali presenti sul sistema:
1.
Dal menu Visualizza, selezionare la casella Utilizzo CPU.
Figura 16.24. Selezione utilizzo della CPU
2.
Il Virtual Machine Manager elenca la percentuale di CPU in uso per tutte le macchine virtuali
presenti sul sistema.
Figura 16.25. Visualizzazione utilizzo della CPU
202
Visualizzazione utilizzo della memoria
16.13. Visualizzazione utilizzo della memoria
Per visualizzare l'uso della memoria per tutte le macchine virtuali sul sistema:
1.
Dal menu Visualizza, selezionare la casella Utilizzo memoria.
Figura 16.26. Selezione utilizzo della memoria
2.
Il Virtual Machine Manager elenca la percentuale di memoria in uso (in megabyte), per tutte le
macchine virtuali presenti sul sistema.
Figura 16.27. Visualizzazione utilizzo della memoria
203
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
16.14. Gestione di una rete virtuale
Per configurare una rete virtuale sul sistema:
1.
Dal menu Modifica, selezionare Dettagli host.
Figura 16.28. Selezione dettagli host
204
Creazione di una rete virtuale
2.
Verrà aperto il menu Dettagli host. A questo punto fare clic sulla scheda Reti virtuali.
Figura 16.29. Configurazione rete virtuale
3.
Tutte le reti virtuali disponibili vengono elencate nella casella sinistra del menu. È possibile
modificare la configurazione di una rete virtuale selezionandola direttamente da questa casella e
modificandola nel modo desiderato.
16.15. Creazione di una rete virtuale
Per creare una rete virtuale sul sistema:
205
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
1.
Open the Host Details menu (refer to Sezione 16.14, «Gestione di una rete virtuale») and click
the Add button.
Figura 16.30. Configurazione rete virtuale
In tal modo verrà aperto il menu Crea una nuova rete virtuale. Per continuare fare clic su
Avanti.
206
Creazione di una rete virtuale
Figura 16.31. Creazione di una nuova rete virtuale
207
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
2.
Inserire il nome appropriato per la propria rete virtuale e successivamente fare clic su Avanti.
Figura 16.32. Come nominare la propria rete virtuale
208
Creazione di una rete virtuale
3.
Inserire uno spazio per l'indirizzo IPv4 per la propria rete virtuale e fare clic su Avanti.
Figura 16.33. Scelta di uno spazio per l'indirizzo IPv4
209
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
4.
Definire il DHCP range per la propria rete virtuale specificando un range di Inizio e Fine di
indirizzi IP. Fare clic su Avanti per continuare.
Figura 16.34. Selezione del range di DHCP
210
Creazione di una rete virtuale
5.
Selezionare il modo attraverso il quale una rete virtuale si collega alle rete fisica.
Figura 16.35. Collegamento alla rete fisica
Se si seleziona Inoltro ad una rete fisica, scegliere se la Destinazione debba essere NAT per
qualsiasi dispositivo fisico o NAT per il dispositivo fisico eth0.
Click Forward to continue.
211
Capitolo 16. Gestione dei guest con Virtual Machine Manager (virt-manager)
6.
Ora si è in grado di creare una rete. Controllare la configurazione della propria rete e fare clic su
Fine.
Figura 16.36. Pronti per creare la rete
212
Creazione di una rete virtuale
7.
La nuova rete virtuale sarà ora disponibile tramite la scheda Rete virtuale del menu Dettagli
host.
Figura 16.37. È ora disponibile la nuova rete virtuale
213
214
Parte V. Tips and Tricks
Suggerimenti e trucchi per
aumentare la produttività
Questi capitoli contengono i suggerimenti ed i consigli utili per migliorare le prestazioni, la scalabilità e
stabilità.
Capitolo 17.
Suggerimenti e trucchi
Questo capitolo contiene i suggerimenti ed i consigli utili per migliorare le prestazioni relative alla
virtualizzazione, scalabilità e stabilità.
17.1. Avvio automatico dei guest
Questa sezione affronta il metodo attraverso il quale è possibile avviare automaticamente i guest
virtualizzati durante la fase d'avvio del sistema host.
Questo esempio utilizza virsh per impostare un guest, TestServer, per un avvio automatico
all'avvio dell'host.
# virsh autostart TestServer
Domain TestServer marked as autostarted
Ora il guest esegue un avvio automatico con l'host.
Per arrestare un guest che esegue un avvio automatico usare il parametro --disable
# virsh autostart --disable TestServer
Domain TestServer unmarked as autostarted
Il guest non esegue più automaticamente un avvio con l'host.
17.2. Come smistarsi tra l'hypervisor KVM e Xen
Questa sezione affronta il metodo attraverso il quale è possibile smistarsi da un hypervisor KVM ad
uno Xen.
Fedora supporta solo un hypervisor attivo per volta.
Migrazione di guest virtualizzati tra gli hypervisor
Per Xen al momento non è presente alcuna applicazione per lo smistamento dei guest
basati su Xen o basati su KVM. I guest possono essere usati solo sul tipo di hypervisor sui
quali sono stati creati.
17.2.1. Da Xen a KVM
La seguente procedura riporta le fasi necessarie per lo smistamento da un hypervisor Xen ad uno
KVM. Per eseguire la suddetta procedura è necessario aver installato ed abilitato il pacchetto kernelxen.
1.
Installare il pacchetto KVM
Installare il pacchetto kvm se non precedentemente fatto.
# yum install kvm
217
Capitolo 17. Suggerimenti e trucchi
2.
Verificare quale kernel è in esecuzione
Il pacchetto kernel-xen potrebbe essere installato. Usare il comando uname per determinare
quale kernel è in esecuzione:
$ uname -r
2.6.23.14-107.fc8xen
The "2.6.23.14-107.fc8xen" kernel is running on the system. If the default kernel,
"2.6.23.14-107.fc8", is running you can skip the substep.
•
Modifica del kernel Xen nel kernel predefinito
Il file grub.conf determina quale kernel è stato avviato. Per modificare il kernel predefinito
modificare il file /boot/grub/grub.conf come di seguito indicato.
default=1
timeout=5
splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
title Fedora (2.6.23.14-107.fc8)
root (hd0,0)
kernel /vmlinuz-2.6.23.14-107.fc8 ro root=/dev/VolGroup00/LogVol00 rhgb quiet
initrd /initrd-2.6.23.14-107.fc8.img
title Fedora (2.6.23.14-107.fc8xen)
root (hd0,0)
kernel /xen.gz-2.6.23.14-107.fc8
module /vmlinuz-2.6.23.14-107.fc8xen ro root=/dev/VolGroup00/LogVol00 rhgb
quiet
module /initrd-2.6.23.14-107.fc8xen.img
Da notare il parametro default=1. Tale parametro indica al boot loader GRUB di avviare la
seconda voce, il kernel Xen. Modificare l'impostazione predefinita in 0 (o sul numero per il
kernel predefinito):
default=0
timeout=5
splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
title Fedora (2.6.23.14-107.fc8)
root (hd0,0)
kernel /vmlinuz-2.6.23.14-107.fc8 ro root=/dev/VolGroup00/LogVol00 rhgb quiet
initrd /initrd-2.6.23.14-107.fc8.img
title Fedora (2.6.23.14-107.fc8xen)
root (hd0,0)
kernel /xen.gz-2.6.23.14-107.fc8
module /vmlinuz-2.6.23.14-107.fc8xen ro root=/dev/VolGroup00/LogVol00 rhgb
quiet
module /initrd-2.6.23.14-107.fc8xen.img
3.
Eseguire un riavvio per caricare il nuovo kernel
Riavviare il sistema. Il computer eseguirà un riavvio con il kernel predefinito. Il modulo KVM
dovrebbe essere caricato automaticamente con il kernel. Verificare che KVM sia in esecuzione:
$ lsmod | grep kvm
kvm_intel
218
85992
1
Da KVM a Xen
kvm
222368
2 ksm,kvm_intel
Il modulo kvm ed il modulo kvm_intel o kvm_amd saranno presenti se la procedura è stata
corretta.
17.2.2. Da KVM a Xen
La seguente procedura rappresenta il metodo attraverso il quale è possibile smistarsi da un hypervisor
KVM ad un hypervisor Xen.Tale procedura presume che il pacchetto kvm sia stato installato ed
abilitato.
1.
Installare i pacchetti Xen
Installare i pacchetti kernel-xen e xen se non precedentemente fatto.
# yum install kernel-xen xen
Il pacchetto kernel-xen può essere installato e disabilitato.
2.
Verificare quale kernel è in esecuzione
Utilizzare il comando uname per determinare quale kernel è in esecuzione.
$ uname -r
2.6.23.14-107.fc8
The "2.6.23.14-107.fc8" kernel is running on the system. This is the default kernel. If the
kernel has xen on the end (for example, 2.6.23.14-107.fc8xen) then the Xen kernel is
running and you can skip the substep.
•
Modifica del kernel predefinito in kernel Xen
Il file grub.conf determina quale kernel è stato avviato. Per modificare il kernel predefinito
modificare il file /boot/grub/grub.conf come di seguito indicato.
default=0
timeout=5
splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
title Fedora (2.6.23.14-107.fc8)
root (hd0,0)
kernel /vmlinuz-2.6.23.14-107.fc8 ro root=/dev/VolGroup00/LogVol00 rhgb quiet
initrd /initrd-2.6.23.14-107.fc8.img
title Fedora (2.6.23.14-107.fc8xen)
root (hd0,0)
kernel /xen.gz-2.6.23.14-107.fc8
module /vmlinuz-2.6.23.14-107.fc8xen ro root=/dev/VolGroup00/LogVol00 rhgb
quiet
module /initrd-2.6.23.14-107.fc8xen.img
Da notare il parametro default=0. Tale parametro indica al boot loader GRUB di avviare
la prima voce, il kernel predefinito. Modificate l'impostazione predefinita su 1 (o il numero
corrispondente per il kernel Xen):
219
Capitolo 17. Suggerimenti e trucchi
default=1
timeout=5
splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
title Fedora (2.6.23.14-107.fc8)
root (hd0,0)
kernel /vmlinuz-2.6.23.14-107.fc8 ro root=/dev/VolGroup00/LogVol00 rhgb quiet
initrd /initrd-2.6.23.14-107.fc82.6.23.14-107.fc8.img
title Fedora (2.6.23.14-107.fc8xen)
root (hd0,0)
kernel /xen.gz-2.6.23.14-107.fc8
module /vmlinuz-2.6.23.14-107.fc8xen ro root=/dev/VolGroup00/LogVol00 rhgb
quiet
module /initrd-2.6.23.14-107.fc8xen.img
3.
Eseguire un riavvio per caricare il nuovo kernel
Riavviare il sistema. Il computer eseguirà il riavvio con il kernel Xen. Eseguire una verifica con il
comando uname:
$ uname -r
2.6.23.14-107.fc8xen
Se xen è presente alla fine dell'output allora il kernel in esecuzione sarà Xen.
17.3. Utilizzo di qemu-img
Lo strumento della linea di comando qemu-img viene usato per la formattazione di vari file system
usati da Xen e KVM. qemu-img deve essere usato per la formattazione delle immagini del guest
virtualizzato, dei dispositivi di storage aggiuntivi e per lo storage di rete. Le opzioni qemu-img ed il
loro utilizzo sono riportati di seguito.
Formattazione e creazione di nuove immagini o dispositivi
Crearte il nuovo nome del file immagine del disco con una dimensione e formato.
# qemu-img create [-6] [-e] [-b base_image] [-f format] filename [size]
If base_image is specified, then the image will record only the differences from base_image. No size
needs to be specified in this case. base_image will never be modified unless you use the "commit"
monitor command.
Convertire una immagine esistente in un altro formato
L'opzione convert viene usata per convertire un formato conosciuto in un formato dell'immagine
diverso.
Comando di formattazione:
# qemu-img convert [-c] [-e] [-f format] filename [-O output_format] output_filename
220
Utilizzo di qemu-img
convert the disk image filename to disk image output_filename using format output_format. it can be
optionally encrypted ("-e" option) or compressed ("-c" option).
only the format "qcow" supports encryption or compression. the compression is read-only. it means
that if a compressed sector is rewritten, then it is rewritten as uncompressed data.
La cifratura utilizza un formato AES con chiavi 128 bit molto sicure. Per ottenere una protezione
massima usare una password molto lunga (16 caratteri).
La conversione dell'immagine è utile anche per ottenere un'immagine più piccola quando si utilizza un
formato in grado di crescere, come ad esempio qcow o cow. I settori vuoti sono rilevati ed eliminati
dall'immagine di destinazione.
come ottenere le informazioni dell'immagine
il parametro info mostra le informazioni relative all'immagine del disco. Il formato per l'opzione info
è il seguente:
# qemu-img info [-f format] filename
informazioni sul nome del file dell'immagine del disco. Usaro per conoscere la dimensione riservata
sul disco la quale può essere diversa dalla dimensione mostrata. Se le istantanee della vm sono state
salvate sull'immagine del disco esse verranno mostrate.
Formati supportati
Il formato di una immagine viene stimato automaticamente. I seguenti formati sono supportati:
raw
Formato immagine del disco Raw (predefinito). Questo formato ha il vantaggio di essere semplice
e facilmente esportabile su tutti gli altri emulatori. Se il file system in uso supporta gli holes (per
esempio in ext2 o ext3 su Linux o NTFS su Windows), allora solo i settori scritti riserveranno lo
spazio. Utilizzare qemu-img info per sapere la dimensione reale usata dall'immagine o ls -ls
su Unix/Linux.
qcow2
Il formato dell'immagine QEMU è il formato più versatile. Usarlo per avere immagini più piccole
(utile se il file system non supporta gli hole, per esempio: su Windows), cifratura AES facoltativa,
compressione basata su zlib e supporto di istantanee multiple della VM.
qcow
Formato immagine QEMU vecchio. Incluso solo per compatibilità con le versioni più vecchie.
cow
Formato immagine User Mode Linux Copy On Write. Il formato cow viene incluso solo per
compatibilità con le versioni precedenti. Non funziona con Windows.
vmdk
Formato immagine compatibile VMware 3 e 4.
cloop
Immagine Linux Compressed Loop utile solo per usare le immagini CD-ROM compresse presenti
per esempio nei CD-ROM di Knoppix.
221
Capitolo 17. Suggerimenti e trucchi
17.4. Processo di overcommit con KVM
L'hypervisor KVM supporta l'overcommit delle CPU e della memoria. Il processo di overcommit è
quel processo attraverso il quale si assegna un numero maggiore di CPU virtualizzate o memoria
rispetto alle risorse fisiche presenti sul sistema. Con un overcommit dellle CPU i desktop o i server
non utilizzati al meglio possono essere eseguiti su un numero minore di server risparmiando così soldi
e alimentazione.
Supporto Xen
Il processo di overcommit delle CPU non è supportato con l'hypervisor Xen. Tale processo
con l'hypervisor Xen potrebbe causare l'instabilità del sistema con conseguenti arresti
inaspettati dell'host e dei guest virtualizzati.
Processo di overcommit della memoria
Numerosi sistemi operativi e applicazioni non sempre utilizzano al 100% la RAM disponibile.
Questo comportamento può essere corretto con KVM in modo da utilizzare più memoria per i guest
virtualizzati rispetto a quella fisicamente disponibile.
Con KVM le macchine virtuali sono processi Linux. Ai guest presenti sull'hypervisor KVM non vengono
assegnati blocchi di RAM fisica, al contrario essi funzionano come processi. Ad ogni processo viene
assegnata memoria quando lo stesso la richiede. KVM utilizza ciò per assegnare memoria per i
guest quando il sistema operativo guest richiede una quantità maggiore o minore di memoria. Il guest
utilizza solo una quantità leggermente superiore di memoria fisica rispetto a quella usata dal sistema
operativo virtualizzato.
Quando la memoria fisica è quasi del tutto utilizzata, o un processo risulta essere inattivo per
un periodo di tempo, Linux sposta la memoria del processo su swap. Swap è generalmente una
partizione su di una unità del disco fisso o su un disco allo stato solido usata da Linux per estendere la
memoria virtuale. Swap è molto più lento della RAM.
Poichè le macchine virtuali sono processi Linux la memoria usata dai guest virtualizzati può essere
posizionata nello swap se il guest è in uno stato di idle o se non pesantemente utilizzato. È possibile
eseguire il commit della memoria usando la dimensione totale dello swap e della RAM fisica. Tale
operazione potrebbe causare alcuni problemi se i guest virtualizzati utilizzano la loro RAM totale.
Senza uno spazio di swap sufficiente per i processi della macchina virtuale per uno swap con il
processo pdflush, verrà avviato il processo di eliminazione. pdflush eliminerà i processi per
liberare la memoria necessaria in modo da evitare un arresto inaspettato del sistema. pdflush
in questo caso potrebbe eliminare i guest virtualizzati o altri processi del sistema, causando la
generazione di errori del file system e lasciando i guest virtualizzati non avviabili.
Warning
Se non è disponibile uno spazio di swap sufficiente i sistemi operativi guest verranno
arrestati. Tale operazione potrebbe causare l'inoperatività dei guest. Per evitare tale
situazione non eseguire il commit di una quantità di memoria maggiore rispetto allo spazio
di swap disponibile.
La partizione di swap viene usata per scambiare la memoria non completamente utilizzata per
l'hard drive ed aumentare le prestazioni della memoria. La dimensione predefinita della partizione
222
Modifica di /etc/grub.conf
di swap viene calcolata considerando la quantità di RAM ed il rapporto del processo di overcommit.
È consigliato creare una partizione di swap più grande se si desidera eseguire l'overcommit della
memoria con KVM. Un rapporto consigliato è 50% (0.5). La formula usata è la seguente:
(0.5 * RAM) + (overcommit ratio * RAM) = Recommended swap size
Il Red Hat Knowledgebase presenta un paragrafo su come determinare con efficienza e sicurezza la
1
misura della partizione di swap — a tal proposito consultare il Knowledgebase .
È possibile l'esecuzione con un rapporto di overcommit pari a dieci volte il numero di guest virtualizzati
attraverso la RAM fisica. Questo funzionerà solo con determinati carichi di lavoro (per esempio
una virtualizzazione desktop con un utilizzo inferiore al 100%). L'impostazione di un rapporto per
l'overcommit non è difficile, è necessario provare e personalizzare il repporto più adatto per l'ambiente
in uso.
Overcommit delle CPU virtualizzate
L'hypervisor KVM supporta l'overcommit delle CPU virtualizzate. È possibile eseguire l'overcommit
delle suddette CPU fino a quando consentito dai limiti di carico dei guest virtualizzati. Fate attenzione
durante l'overcommit delle VCPU poichè i carichi prossimi al 100% potrebbero causare una
interruzione delle richieste o tempi di risposta non utilizzabili.
Il momento più opportuno per l'esecuzione di un overcommit delle CPU virtualizzate è quando ogni
guest virtualizzato ha una singola VCPU. Il Linux scheduler è molto efficiente con questo tipo di carico.
KVM dovrebbe supportare in modo sicuro i guest con carichi inferiori al 100% con un rapporto di 5
VCPU. L'overcommit di guest virtualizzati VCPU singoli non rappresenta alcun problema.
Non è possibile eseguire l'overcommit dei symmetric multiprocessing guest su di un numero maggiore
di core processor rispetto al numero fisico effettivo. Per esempio, un guest con quattro VCPU non
dovrebbe essere eseguito su di un host con un processore dual core. L'operazione di overcommit
dei symmetric multiprocessing guest su di un numero superiore di core di processazione causerà un
abbassamento delle prestazioni.
L'assegnazione delle VCPU dei guest pari al numero di core fisici è appropriato e funziona come
previsto. Per esempio, l'esecuzione di guest virtualizzati con quattro VCPU su di un quad core host.
Con questa impostazione i guest con carichi inferiori al 100% dovrebbero funzionare in modo corretto.
Eseguire sempre prima un test
Non eseguire l'overcommit della memoria o CPU in un ambiente di produzione senza aver
eseguito test approfonditi. Le applicazioni che utilizzano il 100% di memoria o delle risorse
di processazione, potrebbero non essere stabili in ambienti nei quali è stato eseguito un
processo di overcommit. Eseguire sempre prima un test.
17.5. Modifica di /etc/grub.conf
Questa sezione mostra come modificare correttamente ed in modo sicuro il vostro file /etc/
grub.conf in modo da usare il kernel di virtualizzazione. È necessario utilizzare il kernel xen per
1
http://kbase.redhat.com/faq/docs/DOC-15252
223
Capitolo 17. Suggerimenti e trucchi
utilizzare l'hypervisor Xen. Copiate la voce del kernel xen esistente, ed assicuratevi di copiare tutte
le righe importanti o il vostro sistema potrebbe entrare in uno stato di panic durante il processo
d'avvio (initrd avrà una durata di 0). È necessario specificare i valori specifici dell'hypervisor per
aggiungerli sulla riga di xen della voce relativa a grub.
L'output di seguito riportato è un esempio di una voce grub.conf di un sistema sul quale viene
eseguito il pacchetto kernel-xen. grub.conf sul vostro sistema potrebbe variare. La parte più
importante nell'esempio è la sezione corrispondente alla riga title fino alla nuova riga successiva.
#boot=/dev/sda
default=0
timeout=15
#splashimage=(hd0,0)/grub/splash.xpm.gz hiddenmenu
serial --unit=0 --speed=115200 --word=8 --parity=no --stop=1
terminal --timeout=10 serial console
title Fedora (2.6.23.14-107.fc8xen)
root (hd0,0)
kernel /xen.gz-2.6.23.14-107.fc8 com1=115200,8n1
module /vmlinuz-2.6.23.14-107.fc8xen ro root=/dev/VolGroup00/LogVol00
module /initrd-2.6.23.14-107.fc8xen.img
Un punto importante per la modifica di grub.conf...
Il grub.conf potrebbe essere molto diverso se è stato manualmente modificato o
copiato da un esempio.
Per impostare una quantità di memoria assegnata al vostro sistema host al momento dell'avvio su
256MB, sarà necessario inserire dom0_mem=256M sulla riga xen all'interno del vostro grub.conf.
Una versione modificata del file di configurazione di grub nell'esempio precedente:
#boot=/dev/sda
default=0
timeout=15
#splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
serial --unit=0 --speed=115200 --word=8 --parity=no --stop=1
terminal --timeout=10 serial console
title Fedora (2.6.23.14-107.fc8xen)
root (hd0,0)
kernel /xen.gz-2.6.23.14-107.fc8 com1=115200,8n1 dom0_mem=256MB
module /vmlinuz-2.6.23.14-107.fc8xen ro
root=/dev/VolGroup00/LogVol00
module /initrd-2.6.23.14-107.fc8xen.img
17.6. Verifica delle estensioni per la virtualizzazione
Usare questa sezione per determinare la presenza sul sistema delle estensioni di virtualizzazione
hardware. Le suddette estensioni (Intel VT o AMD-V) sono necessarie per una full virtualization.
224
Identificare il tipo di guest e l'implementazione
Posso usare la virtualizzazione senza avere le estensioni di
virtualizzazione?
Se le estensioni della virtualizzazione hardware non sono presenti è possibile usare Xen
para-virtualization con il pacchetto kernel-xen di fedora.
Eseguire il seguente comando per la verifica della disponibilità delle estensioni per la virtualizzazione
della CPU:
$ grep -E 'svm|vmx' /proc/cpuinfo
Il seguente output contiene una voce vmx la quale indica un processore Intel con estensioni Intel VT:
flags
: fpu tsc msr pae mce cx8 apic mtrr mca cmov pat pse36 clflush
dts acpi mmx fxsr sse sse2 ss ht tm syscall lm constant_tsc pni monitor ds_cpl
vmx est tm2 cx16 xtpr lahf_lm
Il seguente output contiene una voce svm la quale indica un processore AMD con estensioni AMD-V:
flags
: fpu tsc msr pae mce cx8 apic mtrr mca cmov pat pse36 clflush
mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt lm 3dnowext 3dnow pni cx16
lahf_lm cmp_legacy svm cr8legacy ts fid vid ttp tm stc
The "flags:" content may appear multiple times for each hyperthread, core or CPU on in the system.
The virtualization extensions may be disabled in the BIOS. If the extensions do not appear or full
virtualization does not work refer to Procedura 19.1, «Come abilitare le estensioni di virtualizzazione
nel BIOS».
17.7. Identificare il tipo di guest e l'implementazione
Lo script di seguito riportato è in grado di identificare se un ambiente, un'applicazione o uno scirpt è in
esecuzione su di un guest completamente virtualizzato o para-virtualizzato o su di un hypervisor.
#!/bin/bash
declare -i IS_HVM=0
declare -i IS_PARA=0
check_hvm()
{
IS_X86HVM="$(strings /proc/acpi/dsdt | grep int-xen)"
if [ x"${IS_X86HVM}" != x ]; then
echo "Guest type is full-virt x86hvm"
IS_HVM=1
fi
}
check_para()
{
if $(grep -q control_d /proc/xen/capabilities); then
echo "Host is dom0"
IS_PARA=1
else
225
Capitolo 17. Suggerimenti e trucchi
echo "Guest is para-virt domU"
IS_PARA=1
fi
}
if [ -f /proc/acpi/dsdt ]; then
check_hvm
fi
if [ ${IS_HVM} -eq 0 ]; then
if [ -f /proc/xen/capabilities ] ; then
check_para
fi
fi
if [ ${IS_HVM} -eq 0 -a ${IS_PARA} -eq 0 ]; then
echo "Baremetal platform"
fi
Analisi di un host
Per l'analisi degli host usare il comando virsh capabilites.
17.8. Come generare un nuovo indirizzo MAC unico
In alcuni casi sarà necessario generare per un guest un nuovo ed unico Indirizzo MAC. Attualmente
non vi è alcuno strumento della linea di comando disponibile per generare un nuovo indirizzo MAC.
Lo script di seguito indicato è in grado di generare un nuovo indirizzo MAC per i guest. Salvare lo
script sul vostro guest come macgen.py. Ora dalla directory in questione è possibile eseguire lo script
usando ./macgen.py, generando così un nuovo indirizzo MAC. Un esempio di output dovrebbe
somigliare al seguente:
$ ./macgen.py
00:16:3e:20:b0:11
#!/usr/bin/python
# macgen.py script to generate a MAC address for virtualized guests on Xen
#
import random
#
def randomMAC():
mac = [ 0x00, 0x16, 0x3e,
random.randint(0x00, 0x7f),
random.randint(0x00, 0xff),
random.randint(0x00, 0xff) ]
return ':'.join(map(lambda x: "%02x" % x, mac))
#
print randomMAC()
Metodo alternativo per la generazione di un nuovo MAC per il vostro guest
È possibile utilizzare anche i moduli interni di python-virtinst per generare un nuovo indirizzo
MAC e UUID, per un utilizzo all'interno del file di configurazione:
# echo
226
'import virtinst.util ; print\
Very Secure ftpd
virtinst.util.uuidToString(virtinst.util.randomUUID())' | python
# echo 'import virtinst.util ; print virtinst.util.randomMAC()' | python
Lo script indicato può essere implementato anche come un file di script simile a quello riportato di
seguito.
#!/usr/bin/env python
# -*- mode: python; -*print ""
print "New UUID:"
import virtinst.util ; print virtinst.util.uuidToString(virtinst.util.randomUUID())
print "New MAC:"
import virtinst.util ; print virtinst.util.randomMAC()
print ""
17.9. Very Secure ftpd
vsftpd fornisce l'accesso necessario agli alberi d'installazione per i guest paravirtualizzati o altri
dati. Se non è stato ancora installato vsftpd durante l'installazione del server, è possibile ottenere
il pacchetto RPM dalla directory Server del dispositivo d'installazione, ed installarlo usando rpm ivh vsftpd*.rpm (da notare che il pacchetto RPM deve essere presente all'interno della directory
corrente).
1. Per configurare vsftpd, modificate /etc/passwd usando vipw, e cambiate la home directory
dell'utente ftp con la directory che utilizzerete per conservare gli alberi d'installazione per i guest
para-virtualizzati. Un esempio di voce per l'utente FTP sarà simile alla seguente:
ftp:x:14:50:FTP User:/xen/pub:/sbin/nologin
2. per avviare automaticamente vsftpd durante l'avvio del sistema, usare la utilità chkconfig per
abilitare vsftpd a questo procedimento.
3. verificare che vsftpd non sia stato abilitato usando chkconfig --list vsftpd:
$ chkconfig --list vsftpd
vsftpd
0:off
1:off
2:off
3:off
4:off
5:off
6:off
4. eseguire chkconfig --levels 345 vsftpd on per avviare vsftpd automaticamente per i
runlevel 3, 4 e 5.
5. utilizzare il comando chkconfig --list vsftpd per verificare che vsftdp sia stato abilitato
all'avvio durante il processo di boot del sistema:
$ chkconfig --list vsftpd
vsftpd
0:off
1:off
2:off
3:on
4:on
5:on
6:off
6. utilizzare service vsftpd start vsftpd per l'avvio del servizio vsftpd:
$service vsftpd start vsftpd
227
Capitolo 17. Suggerimenti e trucchi
Starting vsftpd for vsftpd:
[
OK
]
17.10. Come configurare la persistenza LUN
Questa sezione affronta come implementare la persistenza LUN nei guest e sulle macchine host con o
senza multipath.
Implementazione persistenza LUN senza multipath
Se il proprio sistema non utilizza multipath allora usare udev per l'implementazione della persistenza
LUN. Prima di implementare la persistenza LUN nel sistema, assicurarsi di aver acquisito gli UUID
corretti. Fatto questo, sarà possibile configurare la persistenza LUN modificando il file scsi_id il
quale risiede nella directory /etc . Una volta aperto il file con un editor di testo, decommentate la
seguente riga:
# options=-b
Successivamente sostituirla con questo parametro:
# options=-g
Ciò indicherà a udev di monitorare tutti i dispositivi SCSI del sistema per gli UUID ritornati. Per
determinare gli UUID del sistema utilizzare il comando scsi_id:
# scsi_id -g -s /block/sdc
*3600a0b80001327510000015427b625e*
Questa stringa molto lunga di caratteri rappresenta l'UUID. Gli UUID non cambiano quando
aggiungete un nuovo dispositivo al vostro sistema; acquisite l'UUID per ogni dispositivo in modo
da creare le regole per i dispositivi. Per creare nuove regole del dispositivo modificare il file 20names.rules nella directory /etc/udev/rules.d Le regole usate per nominare il dispositivo
devono seguire il seguente formato:
# KERNEL="sd*",
BUS="scsi",
PROGRAM="sbin/scsi_id", RESULT="UUID", NAME="devicename"
Sostituire l'UUID e devicename con la voce dell'UUID sopra riportato. Quindi la regola dovrebbe
somigliare alla seguente:
KERNEL="sd*", BUS="scsi",
NAME="mydevicename"
PROGRAM="sbin/scsi_id", RESULT="3600a0b80001327510000015427b625e",
Ciò causerà da parte del sistema l'abilitazione di tutti i dispositivi che corrispondono a /dev/sd* in
modo da controllare l'UUID dato. Una volta trovato un dispositivo corrispondente, esso creerà un nodo
del dispositivo chiamato /dev/devicename. Per questo esempio il nodo del dispositivo è /dev/
mydevice . Per finire, sarà necessario aggiungere al file /etc/rc.local la seguente stringa:
228
Come disabilitare lo SMART disk monitoring per i guest
/sbin/start_udev
Implementazione persistenza LUN con multipath
Per implementare la persistenza LUN in un ambiente multipath, sarà necessario definire i nomi degli
alias per i dispositivi multipath. Per questo esempio definite quattro alias del dispositivo modificando il
file multipath.conf che risiede nella directory /etc/:
multipath
}
multipath
}
multipath
}
multipath
{
wwid
alias
3600a0b80001327510000015427b625e
oramp1
wwid
alias
3600a0b80001327510000015427b6
oramp2
wwid
alias
3600a0b80001327510000015427b625e
oramp3
wwid
alias
3600a0b80001327510000015427b625e
oramp4
{
{
{
}
Ciò definisce 4 LUN: /dev/mpath/oramp1, /dev/mpath/oramp2, /dev/mpath/oramp3,
e dev/mpath/oramp4. I dispositivi risiederanno nella directory /dev/mpath . I nomi dei LUN
resteranno invariati anche dopo aver eseguito diversi processi di riavvio, poichè i suddetti nomi
verranno creati sul wwid dei LUN.
17.11. Come disabilitare lo SMART disk monitoring per i
guest
Lo SMART disk monitoring può essere disabilitato durante l'esecuzione sui dischi virtuali mentre lo
storage fisico viene gestito dall'host.
/sbin/service smartd stop
/sbin/chkconfig --del smartd
17.12. Come clonare i file di configurazione del guest
Copiare un file di configurazione esistente in modo da creare un nuovo guest. Modificare il parametro
del nome del file di configurazione del guest. Il nuovo nome unico apparirà nell'hypervisor e
sarà visibile alle utilità di gestione. Generare un UUID nuovo utilizzando il comando uuidgen.
Successivamente per le voci vif definire un indirizzo MAC unico per ogni guest (se si copia
una configurazione del guest da un guest esistente creare uno script per la sua gestione). Per le
informazioni relative al brigde di Xen, se si sposta un file di configurazione del guest esistente su di un
nuovo host, sarà necessario aggiornare la voce xenbr in modo da corrispondere alla configurazione
di networking locale. Per le voci relative al dispositivo sarà necessario modificare le voci presenti nella
sezione 'disk=' per indicare l'immagine del guest corretto.
229
Capitolo 17. Suggerimenti e trucchi
Modificare altresì sul proprio guest le impostazioni relative alla configurazione del sistema. Identificare
la voce HOSTNAME del file /etc/sysconfig/network per corrispondere all'hostname del nuovo
guest.
Modificare l'indirizzo HWADDR del file /etc/sysconfig/network-scripts/ifcfg-eth0 per
corrispondere all'output generato dal file ifconfig eth0, e se si utilizzano gli indirizzi IP statici,
modificare la voce IPADDR.
17.13. Duplicazione di un guest esistente e dei suoi file di
configurazione
Questa sezione affronta come copiare un file di configurazione esistente in modo da creare un
nuovo guest. Prestare molta attenzione ad alcuni parametri molto importanti all'interno del file di
configurazione del proprio guest i quali devono essere modificati per duplicare con successo un guest.
name
Il nome del proprio guest come conosciuto dall'hypevisor e mostrato nelle utilità di gestione.
Questa voce dovrebbe essere unica sul sistema.
uuid
Una gestione unica per il guest, è possibile rigenerare un nuovo UUID utilizzando il comando
uuidgen. Esempio di output UUID:
$ uuidgen
a984a14f-4191-4d14-868e-329906b211e5
vif
• The MAC address must define a unique MAC address for each guest. This is automatically
done if the standard tools are used. If you are copying a guest configuration from an existing
guest you can use the script Sezione 17.8, «Come generare un nuovo indirizzo MAC unico».
• Se si desidera muovere o duplicare un file di configurazione esistente del guest sul nuovo
host assicurarsi di modificare la voce xenbr, in modo che essa corrisponda alla propria
configurazione di networking locale (è possibile ottenere le informazioni del bridge usando il
comando brctl show).
• Voci del dispositivo, assicurarsi di modificare le voci presenti nella sezione disk=, in modo da
indicare l'immagine del guest corretto.
Modificare ora le impostazioni della configurazione del sistema sul proprio guest:
/etc/sysconfig/network
Modificare la voce HOSTNAME con il nuovo hostname del guest.
/etc/sysconfig/network-scripts/ifcfg-eth0
• Modificare l'indirizzo HWADDR con l'output di ifconfig eth0
• Modificare la voce IPADDR se si usa un indirizzo IP statico.
230
Capitolo 18.
Creazione script libvirt personalizzati
Questa sezione contiene le informazioni utili per programmatori ed amministratori di sistema per la
scrittura di script personalizzati atti a facilitare il proprio compito utilizzando libvirt.
Capitolo 17, Suggerimenti e trucchi is recommended reading for programmers thinking of writing new
applications which use libvirt.
18.1. Come utilizzare i file di configurazione XML con virsh
virsh can handle XML configuration files. You may want to use this to your advantage for scripting
large deployments with special options. You can add devices defined in an XML file to a running paravirtualized guest. For example, to add a ISO file as hdc to a running guest create an XML file:
# cat satelliteiso.xml
<disk type="file" device="disk">
<driver name="file"/>
<source file="/var/lib/libvirt/images/rhn-satellite-5.0.1-11-redhat-linux-as-i386-4-embeddedoracle.iso"/>
<target dev="hdc"/>
<readonly/>
</disk>
Run virsh attach-device to attach the ISO as hdc to a guest called "satellite" :
# virsh attach-device satellite satelliteiso.xml
231
232
Parte VI. Troubleshooting
Introduzione all'individuazione
ed alla risoluzione dei problemi
I seguenti capitoli forniscono le informazioni necessarie per assistervi alla risoluzione dei problemi che
potreste incontrare durante l'utilizzo della virtualizzazione.
Note importanti sulle problematiche relative alla virtualizzazione
Your particular problem may not appear in this book due to ongoing development which
creates and fixes bugs. For the most up to date list of known bugs, issues and bug
fixes read the Fedora Release Notes for your version and hardware architecture. The
Release Notes can be found in the documentation section of the Fedora website, http://
docs.fedoraproject.org.
Capitolo 19.
Troubleshooting
Questo capitolo affronta i problemi e le soluzioni comuni con Fedora virtualization.
19.1. Errori del dispositivo loop
Se si utilizzano le immagini del guest basate sul file, allora potrebbe essere necessario aumentare il
numero di dispositivi loop configurati. La configurazione predefinita permette fino ad un massimo di 8
dispositivi loop attivi. Se è necessario un numero superiore a 8 guest basati sul file o dispositivi loop, il
numero di dispositivi loop configurati potrà essere modificato in /etc/modprobe.conf. Modificare /
etc/modprobe.conf ed aggiungere la seguente riga:
options loop max_loop=64
Questo esempio ne utilizza 64 ma è possibile specificare un altro numero per impostare il valore
loop massimo. Altresì, è possibile implementare i loop device backed guest sul proprio sistema. Per
impostare i loop device backed guest per un guest paravirtualizzato usare i comandi phy: block
device o tap:aio. Per implementare i loop device backed guest per un sistema completamente
virtualizzato utilizzare i comandi phy: device o file: file .
19.2. Come abilitare le estensioni hardware per la
virtualizzazione VT e AMD-V nel BIOS
Questa sezione descrive il metodo attraverso il quale identificare le estensioni di virtualizzazione
hardware abilitandole nel BIOS se risultano disabilitate.
Le estensioni Intel VT possono essere disabilitate nel BIOS. Alcuni rivenditori di portatili hanno
disabilitato le estensioni Intel VT per impostazione predefinita nelle rispettive CPU.
Le estensioni di virtualizzazione non possono essere disabilitate nel BIOS per AMD-V (processori
installati in un socket Rev 2).
The virtualization extensions are sometimes disabled in BIOS, usually by laptop manufacturers. Refer
to Sezione 19.2, «Come abilitare le estensioni hardware per la virtualizzazione VT e AMD-V nel
BIOS» for instructions on enabling disabled virtualization extensions.
Come prima cosa verificare se le estensioni di virtualizzazione sono state abilitate nel BIOS. Le
impostazioni del BIOS per Intel® VT o AMD-V sono generalmente nei menu Chipset o Processore.
Tuttavia queste impostazioni possono essere nascoste sotto altri menu non standard come ad
esempio Impostazioni di sicurezza.
Procedura 19.1. Come abilitare le estensioni di virtualizzazione nel BIOS
1. Riavviare il computer ed aprire il menu BIOS del sistema. Per fare questo premere delete o Alt
+ F4.
2.
Selezionare Ripristina predefiniti, e successivamente selezionare Salva & Esci.
3.
Spegnere la macchina e disconnettere l'alimentazione.
4.
Successivamente accendere la macchina ed aprire Utilità impostazione del BIOS. Aprire la
sezione Processore ed abilitare Intel®Virtualization Technology o AMD-V. I valori possono
235
Capitolo 19. Troubleshooting
essere chiamati Estensioni per la virtualizzazione su alcune macchine. Selezionare Salva &
Esci.
5.
Spegnere la macchina e disconnettere l'alimentazione.
6.
Eseguire il comando cat /proc/cpuinfo | grep vmx svm. Se il comando genera un
output ciò indicherà che le estensioni di virtualizzazione sono state abilitate. Se tale output risulta
assente ciò indicherà che le estensioni di virtualizzazione o l'impostazione corretta del BIOS
potrebbero non essere abilitati.
236
Appendice A. Risorse aggiuntive
Per saperne di più sulla virtualizzazione e Linux consultare le seguenti risorse.
A.1. Risorse online
• http://www.cl.cam.ac.uk/research/srg/netos/xen/ Il sito web del progetto Xen™ para-virtualization
machine manager dal quale deriva il pacchetto kernel-xen di Fedora. Il sito gestisce i binari
dell'upstream del progetto xen ed il codice sorgente insieme alle informazioni, alle panoramiche
sulle architetture, alla documentazione ed ai link relativi riguardanti xen e le tecnologie ad esso
associate.
• Il sito web di Xen Community
http://www.xen.org/
• http://www.libvirt.org/ è il sito web ufficiale per l'API di virtualizzazione libvirt.
• http://virt-manager.et.redhat.com/ è il sito web del progetto per il Virtual Machine Manager (virtmanager), l'applicazione grafica per la gestione delle macchine virtuali.
• Open Virtualization Center
http://www.openvirtualization.com
1
• Documentazione di Fedora
http://docs.fedoraproject.org
• Panoramica sulle tecnologie di Virtualizzazione
http://virt.kernelnewbies.org
2
• Red Hat Emerging Technologies group
3
http://et.redhat.com
A.2. Documentazione installata
• /usr/share/doc/xen-<version-number>/ is the directory which contains information about
the Xen para-virtualization hypervisor and associated management tools, including various example
configurations, hardware-specific information, and the current Xen upstream user documentation.
• man virsh and /usr/share/doc/libvirt-<version-number> — Contains sub commands
and options for the virsh virtual machine management utility as well as comprehensive information
about the libvirt virtualization library API.
• /usr/share/doc/gnome-applet-vm-<version-number> — Documentation for the GNOME
graphical panel applet that monitors and manages locally-running virtual machines.
• /usr/share/doc/libvirt-python-<version-number> — Provides details on the Python
bindings for the libvirt library. The libvirt-python package allows python developers to
create programs that interface with the libvirt virtualization management library.
237
Appendice A. Risorse aggiuntive
• /usr/share/doc/python-virtinst-<version-number> — Provides documentation on
the virt-install command that helps in starting installations of Fedora and Linux related
distributions inside of virtual machines.
• /usr/share/doc/virt-manager-<version-number> — Provides documentation on the
Virtual Machine Manager, which provides a graphical tool for administering virtual machines.
238
Appendice B. Cronologia
Revisione
12.1.3
Mon Oct 12 2009
Christopher Curran ccurran@redhat.com
Divisione da Red Hat Enterprise Linux 5.4 Virtualization Guide versione 5.4-61.
239
240
Appendice C. Colophon
Questo manuale è stato scritto in un formato DocBook XML v4.3.
Questo libro si basa sul lavoro svolto da Jan Mark Holzer e Chris Curran.
Altri crediti vanno a:
• Don Dutile redattore tecnico per la sezione dei driver para-virtualizzati.
• Barry Donahue redattore tecnico per la sezione dei driver para-virtualizzati.
• Rick Ring redattore tecnico per la sezione Virtual Machine Manager.
• Michael Kearey redattore tecnico per le sezioni relative all'utilizzo dei file di configurazione XML con
virsh ed unità floppy virtualizzate.
• Marco Grigull redattore tecnico per la compatibilità software e la sezione relativa alle prestazioni.
• Eugene Teo redattore tecnico per la sezione Gestione dei guest con virsh.
Publican, il tool di pubblicazione attraverso il quale è stato prodotto questo manuale, compilato da
Jeffrey Fearn.
Il Red Hat Localization Team consiste nelle seguenti persone:
Lingue orientali
• Cinese semplificato
• Leah Wei Liu
• Cinese tradizionale
• Chester Cheng
• Terry Chuang
• Giapponese
• Junko Ito
• Coreano
• Eun-ju Kim
Lingue latine
• Francese
• Sam Friedmann
• Tedesco
• Hedda Peters
• Italiano
241
Appendice C. Colophon
• Francesco Valente
• Portoghese brasiliano
• Glaucia de Freitas
• Leticia de Lima
• Spagnolo
• Angela Garcia
• Gladys Guerrero
• Russo
• Yuliya Poyarkova
242
Glossario
Questo glossario intende definire i termini usati nella Installation Guide.
Bare-metal
Il termine bare-metal si riferisce all'architettura fisica sottostante
di un computer. L'esecuzione di un sistema operativo in modalità
bare-metal è un altro modo attraverso il quale si fa riferimento
all'esecuzione di una versione non modificata del sistema operativo
sull'hardware fisico. Gli esempi di sistemi operativi in esecuzione
in modalità bare metal sono dom0 o un sistema operativo installato
normalmente.
Completamente
virtualizzato
See Full virtualization.
dom0
Also known as the Host or host operating system.
dom0 refers to the host instance of Linux running the Hypervisor
which facilitates virtualization of guest operating systems. Dom0 runs
on and manages the physical hardware and resource allocation for
itself and the guest operating systems.
Domains
domU and Domains are both domains. Domains run on the
Hypervisor. The term domains has a similar meaning to Macchine
virtuali and the two are technically interchangeable. A domain is a
Virtual Machine.
domU
domU refers to the guest operating system which run on the host
system (Domains).
Driver para-virtualizzati
I driver para-virtualizzati sono driver del dispositivo i quali operano su
guest linux completamente virtualizzati. I suddetti driver aumentano
le prestazioni I/O dei dispositivi a blocchi e di rete per guest
completamente virtualizzati.
Full virtualization
Xen and KVM can use full virtualization. Full virtualization uses
hardware features of the processor to provide total abstraction
of the underlying physical system (Bare-metal) and create a new
virtual system in which the guest operating systems can run. No
modifications are needed in the guest operating system. The guest
operating system and any applications on the guest are not aware
of the virtualized environment and run normally. Para-virtualization
requires a modified version of the Linux operating system.
Hardware Virtual Machine
See Full virtualization
Host
The host operating system, also known as dom0.
The host operating system environment runs the virtualization
software for Completamente virtualizzato and Para-virtualizzato guest
systems.
Hypervisor
L'hypervisor rappresenta il livello software in grado di estrarre
l'hardware dal sistema operativo e quindi di permettere ai sistemi
243
Glossario
operativi multipli di essere eseguiti sullo stesso hardware.
L'hypervisor viene eseguito sul sistema operativo host e permette
così l'esecuzione di altri sistemi operativi virtualizzati sull'hardware
dell'host.
I/O
Short for input/output (pronounced "eye-oh"). The term I/O describes
any program, operation or device that transfers data to or from a
computer and to or from a peripheral device. Every transfer is an
output from one device and an input into another. Devices such as
keyboards and mouses are input-only devices while devices such as
printers are output-only. A writable CD-ROM is both an input and an
output device.
Indirizzi MAC
Il Media Access Control Address è l'indirizzo hardware per un
Network Interface Controller. In un contesto di virtualizzazione, gli
indirizzi MAC devono essere generati per le interfacce di rete virtuali
con un MAC unico presente sul vostro dominio locale.
Kernel-based Virtual
Machine
KVM (Kernel-based Virtual Machine) is a Full virtualization solution for
Linux on AMD64 and Intel 64 hardware. VM is a Linux kernel module
built for the standard Linux kernel. KVM can run multiple, unmodified
virtualized guest Windows and Linux operating systems. KVM is a
hypervisor which uses the libvirt virtualization tools (virt-manager and
virsh).
KVM è un set di moduli kernel di Linux in grado di gestire i dispositivi,
la memoria e le API di gestione per il modulo Hypervisor. I guest
virtualizzati vengono eseguiti come processi Linux e thread e
controllati dai suddetti moduli.
LUN
Un Logical Unit Number (LUN) è il numero assegnato ad una unità
logica (una entità del protocollo SCSI).
Macchine virtuali
Una macchina virtuale è una implementazione software di una
macchina fisica o di linguaggi di programmazione (per esempio Java
Runtime Environment o LISP). Le macchine virtuali, in un contesto
di virtualizzazione, sono sistemi operativi in esecuzione su hardware
virtualizzati.
Migrazione
La migrazione è un processo in cui un guest virtualizzato viene
spostato da un host all'altro. Tale processo può essere eseguito
offline (dove il guest risulta sospeso e successivamente spostato) o
live (dove il guest viene spostato senza alcuna sospensione). A tal
proposito è possibile migrare i guest completamente virtualizzati e
paravirtualizzati di Xen ed i guest completamente virtualizzati di KVM.
La migrazione rappresenta una funzione molto importante nella
virtualizzazione poiché il software viene completamente separato
dall'hardware. Questo processo è utile per:
• Load balancing - guests can be moved to hosts with lower usage
when a host becomes overloaded.
244
• Hardware failover - when hardware devices on the host start to fail,
guests can be safely relocated so the host can be powered down
and repaired.
• Energy saving - guests can be redistributed to other hosts and host
systems powered off to save energy and cut costs in low usage
periods.
• Geographic migration - guests can be moved to another location for
lower latency or in serious circumstances.
Lo storage 'networked' condiviso viene usato per il salvataggio delle
immagini del guest. Senza la migrazione dello storage condiviso tale
operazione non è possibile.
An offline migration suspends the guest then moves an image of the
guests memory to the destination host. The guest is resumed on the
destination host and the memory the guest used on the source host is
freed.
Il tempo necessario per una migrazione offline dipende dalla
larghezza di banda e dalla latenza. Un guest con 2GB di memoria
necessita di diversi secondi su di un link Ethernet di 1 Gbit.
Una migrazione live mantiene il guest in esecuzione sull'host
sorgente ed inizia il processo di migrazione senza arrestare il guest.
Tutte le pagine della memoria modificate vengono rilevate ed inviate
alla destinazione dopo aver inviato l'immagine. La memoria viene
aggiornata con le pagine modificate. Questo processo continua fino
a quando si raggiunge comportamenti euristici; il processo è riuscito
a copiare tutte le pagine o l'origine cambia troppo velocemente e
l'host di destinazione non riesce a fare progressi. Se si verificano tali
comportamenti il guest verrà brevemente arrestato sull'host sorgente
e verranno inviati i buffer insieme ai registri. I registri vengono caricati
sul nuovo host ed il guest riavviato sull'host di destinazione. Se
è impossibile eseguire il merge del guest (tale comportamento si
verifica se il guest presenta carichi molto elevati), il guest viene
arrestato e subito dopo verrà eseguita una migrazione offline.
Il tempo necessario per una migrazione offline dipende dalla
larghezza di banda, latenza ed attività del guest. Se il guest utilizza
una quantità significativa di I/O o CPU, il processo di migrazione
richiederà un periodo più lungo.
Para-virtualization
Il para-virtualization utilizza un kernel speciale, talvolta riferito come
xen kernel o pacchetto kernel-xen. I kernel del guest paravirtualizzato
vengono eseguiti contemporaneamente sull'host durante l'utilizzo
delle librerie e dei dispositivi dell'host. Una installazione paravirtualizzata avrà un accesso completo a tutti i dispositivi presenti sul
sistema e può essere limitato attraverso le impostazioni di sicurezza
(SELinux e file control). Il para-virtualization risulta essere molto
più veloce di un full virtualization e può essere usato con ottimi
245
Glossario
risultati per il bilanciamento del carico, il provisioning, e per un
consolidamento della sicurezza.
Dall'introduzione di Fedora 9 non sarà più necessario un kernel
speciale. Una volta accettata questa patch all'interno dell'albero
principale di Linux, tutti i kernel di Linux con una versione più recente,
avranno il para-virtualization abilitato o disponibile.
Para-virtualizzato
See Para-virtualization,
Security Enhanced Linux
Abbreviazione di Security Enhanced Linux, SELinux usa i Linux
Security Module (LSM) nel kernel di Linux per fornire una gamma di
privilegi minimi necessari per le politiche sulla sicurezza.
Sistema guest
Also known as guests, virtual machines or domU.
Universally Unique Identifier
L'Universally Unique Identifier (UUID) è un metodo di numerazione
per dispositivi, sistemi e per alcuni componenti software in ambienti
informatici distribuiti. Nella virtualizzazione gli UUID includono:
identificatori per file system ext2 e ext3, identificatori per dispositivi
RAID, identificatori per dispositivi iSCSI e LUN, indirizzi MAC ed
identificatori per macchine virtuali.
Virtualization
Virtualizzazione è un termine informatico il quale indica un software in
esecuzione, generalemente sistemi operativi, contemporaneamente
ed isolati da altri programmi su di un sistema. Numerose
implementazioni utilizzano un hypervisor, un livello software al di
sopra del sistema operativo, per estrarre l'hardware. L'hypervisor
permette l'esecuzione di sistemi operativi multipli sullo stesso sistema
virtuale conferendo al sistema operativo guest hardware virtualizzato.
Sono presenti diversi metodi per la virtualizzazione dei sistemi
operativi:
• Hardware-assisted virtualization is the technique used for full
virtualization with Xen and KVM (definition: Full virtualization)
• Para-virtualization is a technique used by Xen to run Linux guests
(definition: Para-virtualization)
• Software di virtualizzazione o emulazione. Il software di
virtualizzazione utilizza una traduzione dei binari ed altre tecniche
di emulazione per eseguire sistemi operativi non modificati. Questo
software è molto più lento della virtualizzazione hardware-assistita
o della para-virtualizzazione.
Virtualized CPU
Un sistema presenta un numero di virtual CPU (VCPU) relativi al
numero di processori core fisici. Il numero di virtual CPU è un numero
finito e rappresenta il numero totale di virtual CPU assegnabile alle
macchine virtuali del guest.
Xen
Fedora supports the Xen hypervisor and the KVM hypervisor (refer
to Kernel-based Virtual Machine). Both hypervisors have different
architectures and development approaches. The Xen hypervisor runs
underneath a Linux operating system which acts as a host managing
246
system resources and virtualization APIs. The host is sometimes
referred to as as dom0 or Domain0.
247
248
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertising