Tags:
,
view all tags
---+!! Installazione e configurazione di !GestioneServiziGenerali.GlusterFS %TOC% <br /> ---+ Installazione pacchetti !GestioneServiziGenerali.GlusterFS Installare tramite =yum= i pacchetti del server !GestioneServiziGenerali.GlusterFS sui nodi che comporranno il filesystem distribuito <verbatim> # yum install glusterfs-fuse glusterfs-server glusterfs-vim </verbatim> Far partire il servizio =glusterd= appena installato <verbatim> # /etc/init.d/glusterd start </verbatim> Permettere che il servizio =glusterd= venga avviato di default al riavvio del server <verbatim> # chkconfig glusterd on </verbatim> <br /> ---+ Creazione di un trusted storage pool Prima di configurare un volume !GestioneServiziGenerali.GlusterFS è necessario creare un trusted storage pool, contenente i server che comporranno il volume. Per permettere la condivisione del filesystem tra i nodi desiderati eseguire, su uno qualsiasi dei nodi, il comando =gluster peer probe <HOSTNAME_NODE>= per ognuno degli altri nodi. Ad esempio in un pool di quattro nodi (con hostname rispettivamente =hostname1.domain=, =hostname2.domain=, =hostname3.domain=, =hostname4.domain=) eseguire sull'host =hostname1.domain= : <verbatim> # gluster peer probe hostname2.domain # gluster peer probe hostname3.domain # gluster peer probe hostname4.domain </verbatim> Per controllare che la creazione del pool sia andata a buon fine, lanciare il comando =gluster peer status= su uno dei nodi. In output verrà visualizzata la composizione del pool. Ad esempio lanciandolo su =hostname1.domain= si otterrà: <verbatim> # gluster peer status Number of Peers: 3 Hostname: hostname2.domain Uuid: 2088ff36-dbf9-44a3-9b3b-8a3a94d64cd4 State: Peer in Cluster (Connected) Hostname: hostname3.domain Uuid: ce7b0621-4068-43e4-b2a5-585c23ade1de State: Peer in Cluster (Connected) Hostname: hostname4.domain Uuid: ae5dfd23-4a65-a2e6-be85-3e5c11abe5cd State: Peer in Cluster (Connected) </verbatim> <br /> ---+ Creazione delle unità base di storage (Brick) In !GestioneServiziGenerali.GlusterFS un Brick è l'unità base dello storage, rappresentata da una directory su un server del trusted storage pool. ---+++ Creazione Brick per GLANCE Nota bene: * I nodi che compongono il volume condiviso per GLANCE sono 3 in modalità di replica * Per GLANCE si è reputata sufficiente una dimensione di 300G (Gigabyte) per ciascun brick * Si è scelto lv_glance come nome del volume logico * Si è scelto /mnt/brick-glance come directory dove montare il volume logico Ripetere il seguente set di istruzioni per *ognuno dei nodi* che si intende utilizzare per comporre il filesystem per il servizio GLANCE (Image Repository) di !OpenStack. 1. Creare un volume logico di 300 Gigabyte: <verbatim> # lvcreate -L 300G -n lv_glance <VOLUME_NAME> </verbatim> dove <VOLUME_NAME> è il nome del volume fisico sul quale si intende creare il volume logico. Per capire quali sono i volumi fisici disponibili sul server lanciare il comando =vgdisplay= Per controllare la corretta creazione del volume logico, digitare il comando =lvs= che fornirà in output la lista dei volumi logici disponibili sul server. <pre></pre> 1. Formattare la partizione appena creata (ad esempio su filesystem ext4): <verbatim> # mkfs.ext4 <LV_PATH> </verbatim> dove <LV_PATH> è il percorso del volume logico ricavabile tramite il comando =lvdisplay= . <pre></pre> 1. Creare la directory dove si intende montare il volume appena creato: <verbatim> # mkdir /mnt/brick-glance </verbatim> <pre></pre> 1. Per consentire che il volume logico sia montato all'avvio del server, editare il file =/etc/fstab= aggiungendo la seguente riga: <verbatim> <LV_PATH> /mnt/brick-glance ext4 defaults 1 1 </verbatim> <pre></pre> 1. Montare il volume: <verbatim> # mount –a </verbatim> ---+++ Creazione Brick per NOVA Nota bene: * I nodi che compongono il volume condiviso per NOVA sono 4 in modalità di replica distribuita * Per NOVA si è reputata sufficiente una dimensione di 1000G (Gigabyte) per ciascun brick * Si è scelto lv_nova come nome del volume logico * Si è scelto /mnt/brick-glance come directory dove montare il volume logico Ripetere il seguente set di istruzioni per *ognuno dei nodi* che si intende utilizzare per comporre il filesystem per il servizio NOVA (Compute) di !OpenStack. 1. Creare un volume logico di 1000 Gigabyte: <verbatim> # lvcreate -L 1000G -n lv_nova <VOLUME_NAME> </verbatim> <pre></pre> 1. Formattare la partizione appena creata (ad esempio su filesystem ext4): <verbatim> # mkfs.ext4 <LV_PATH> </verbatim> <pre></pre> 1. Creare la directory dove si intende montare il volume appena creato: <verbatim> # mkdir /mnt/brick-nova </verbatim> <pre></pre> 1. Editare il file =/etc/fstab= aggiungendo la seguente riga: <verbatim> <LV_PATH> /mnt/brick-nova ext4 defaults 1 1 </verbatim> <pre></pre> 1. Montare il volume: <verbatim> # mount –a </verbatim> <br /> ---+ Creazione del volume condiviso I Brick vengono utlizzati per comporre il volume di storage condiviso sui nodi. La creazione del volume può essere effettuata su uno qualsiasi dei nodi che compongono il trusted storage pool. Ciascun Brick è identificato dalla combinazione del nome del server con la directory da esportare, nel seguente formato _hostname1.domain:/mnt/mydir_ . ---+++ Creazione del volume condiviso per GLANCE Nota bene: * I nodi che compongono il volume condiviso per GLANCE sono 3 in modalità di replica * Il servizio GLANCE sarà installato sul server hostname1.domain * Si è scelto volume_glance come nome del volume condiviso Creare il volume condiviso tramite il seguente comando: <verbatim> # gluster volume create volume-glance replica 3 transport tcp hostname1.domain:/mnt/brick-glance hostname1.domain:/mnt/brick-glance hostname1.domain:/mnt/brick-glance </verbatim> Far partire il vomune appena creato: <verbatim> # gluster volume start volume-glance </verbatim> Per controllare il corretto avvio del volume, digitare: <verbatim> # gluster volume info </verbatim> *Sul server che ospiterà il servizio GLANCE* (Image repository) montare il volume creato. Editare il file =/etc/fstab= (se necessario creare la directory =/var/lib/glance/images=): <verbatim> hostname1.domain:/volume-glance /var/lib/glance/images glusterfs defaults 1 1 </verbatim> Montare il volume condiviso: <verbatim> # mount –a </verbatim> ---+++ Creazione del volume condiviso per NOVA Nota bene: * I nodi che compongono il volume condiviso per NOVA sono 4 in modalità di replica distribuita * Il servizio NOVA sarà installato sui server hostname1.domain, hostname2.domain, hostname3.domain * Si è scelto volume_nova come nome del volume condiviso Creare il volume condiviso tramite il seguente comando: <verbatim> # gluster volume create volume-nova replica 2 transport tcp hostname1.domain:/mnt/brick-nova hostname2.domain:/mnt/brick-nova hostname3.domain:/mnt/brick-nova hostname4.domain:/mnt/brick-nova </verbatim> Far partire il vomune appena creato: <verbatim> # gluster volume start volume-nova </verbatim> *Sui server che ospiteranno il servizio NOVA* (Compute) montare il volume creato. Editare il file =/etc/fstab= (se necessario creare la directory =/var/lib/glance/images=): <verbatim> hostname1.domain:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1 </verbatim> Montare il volume condiviso: <verbatim> # mount –a </verbatim> <br /> -- Main.EnricoFattibene - 2012-10-08
Edit
|
Attach
|
PDF
|
H
istory
:
r8
<
r7
<
r6
<
r5
<
r4
|
B
acklinks
|
V
iew topic
|
More topic actions...
Topic revision: r5 - 2012-10-22
-
TWikiAdminUser
Home
Site map
CEMon web
CREAM web
Cloud web
Cyclops web
DGAS web
EgeeJra1It web
Gows web
GridOversight web
IGIPortal web
IGIRelease web
MPI web
Main web
MarcheCloud web
MarcheCloudPilotaCNAF web
Middleware web
Operations web
Sandbox web
Security web
SiteAdminCorner web
TWiki web
Training web
UserSupport web
VOMS web
WMS web
WMSMonitor web
WeNMR web
MarcheCloud Web
Create New Topic
Index
Search
Changes
Notifications
RSS Feed
Statistics
Preferences
P
P
View
Raw View
Print version
Find backlinks
History
More topic actions
Edit
Raw edit
Attach file or image
Edit topic preference settings
Set new parent
More topic actions
Account
Log In
Edit
Attach
Copyright © 2008-2024 by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
Ideas, requests, problems regarding TWiki?
Send feedback