Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.3 - 2013-02-27
| ||||||||
Line: 400 to 400 | ||||||||
Brick3: 192.168.200.24:/mnt/brick-glance | ||||||||
Added: | ||||||||
> > | La figura successiva mostra i dettagli della composizione dei volumi e sui mount point.
![]() | |||||||
A questo punto avremo le seguenti configurazioni sui vari server.
mcloud01 | ||||||||
Line: 1146 to 1150 | ||||||||
config_file = /etc/glance/glance-api-paste.ini flavor = keystone | ||||||||
Added: | ||||||||
> > | * Verificare che sql_connection punti al DB MySQL piuttosto che a sqlite:
sql_connection = mysql://glance:<YOUR_GLANCEDB_PASSWORD>@localhost/glance | |||||||
| ||||||||
Line: 1208 to 1216 | ||||||||
Troubleshooting Glance | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
Changed: | ||||||||
< < | # wget https://launchpad.net/cirros/trunk/0.3.0/+download/cirros-0.3.0-x86_64-disk.img![]() | |||||||
> > | # wget https://launchpad.net/cirros/trunk/0.3.0/+download/cirros-0.3.0-x86_64-disk.img![]() | |||||||
Changed: | ||||||||
< < | # glance add name=cirros-0.3.0-x86_64 disk_format=qcow2 container_format=bare < cirros-0.3.0-x86_64-disk.img | |||||||
> > | # glance image-create --name=cirros-0.3.0-x86_64 --disk-format=qcow2 --container-format=bare < cirros-0.3.0-x86_64-disk.img | |||||||
Added new image with ID: 691109ac-9673-4195-a27f-8211a49bfdcb | ||||||||
Changed: | ||||||||
< < | # glance index | |||||||
> > | # glance image-list | |||||||
ID Name Disk Format Container Format Size
------------------------------ -------------------- -------------------- -------------- 691109ac-9673-4195-a27f-8211a49bfdcb cirros-0.3.0-x86_64 qcow2 bare 9761280 | ||||||||
Line: 1230 to 1238 | ||||||||
691109ac-9673-4195-a27f-8211a49bfdcb lost+found | ||||||||
Changed: | ||||||||
< < | # glance show 691109ac-9673-4195-a27f-8211a49bfdcb | |||||||
> > | # glance image-show 691109ac-9673-4195-a27f-8211a49bfdcb | |||||||
URI: http://192.168.200.21:9292/v1/images/691109ac-9673-4195-a27f-8211a49bfdcb![]() | ||||||||
Line: 1872 to 1880 | ||||||||
+-------------------------------------+------------------------------------------------------------+ | ||||||||
Deleted: | ||||||||
< < | ||||||||
-- MatteoManzali - 2013-02-27
| ||||||||
Added: | ||||||||
> > |
|
Line: 1 to 1 | |||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.3 - 2013-02-27
| |||||||||||||||||||||
Line: 6 to 6 | |||||||||||||||||||||
TestbedTabella Hostnames / IPs dei server che compongono l'infrastruttura pilota | |||||||||||||||||||||
Added: | |||||||||||||||||||||
> > | Per il funzionamento dell’infrastruttura la configurazione di rete prevede l’uso di tre sottoreti:
![]() | ||||||||||||||||||||
Deleted: | |||||||||||||||||||||
< < |
| ||||||||||||||||||||
Deleted: | |||||||||||||||||||||
< < | |||||||||||||||||||||
Controlli preliminari dell'ambiente software da effettuare su ogni server
| |||||||||||||||||||||
Line: 1863 to 1875 | |||||||||||||||||||||
-- MatteoManzali - 2013-02-27 | |||||||||||||||||||||
Added: | |||||||||||||||||||||
> > |
|
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche Cloud | ||||||||
Changed: | ||||||||
< < | Ver. 0.2 - 2012-11-20 | |||||||
> > | Ver. 0.3 - 2013-02-27 | |||||||
| ||||||||
Line: 1312 to 1312 | ||||||||
Installare e impostare l'avvio automatico dei servizi legati a ISCSI (sul Cloud Controller) | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
yum install scsi-target-utils | ||||||||
Line: 1862 to 1862 | ||||||||
| ||||||||
Changed: | ||||||||
< < | -- MatteoManzali - 2012-11-19 | |||||||
> > | -- MatteoManzali - 2013-02-27 |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.2 - 2012-11-20
| ||||||||
Line: 90 to 90 | ||||||||
192.168.200.24 mcloud04.regionemarche.intra mcloud04 | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
yum install openssh-clients system-config-lvm vim-enhanced xorg-x11-xauth ntp avahi libvirt libvirt-python libvirt-client | ||||||||
Line: 106 to 106 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # rpm -ivh http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-7.noarch.rpm![]() | |||||||
> > | # rpm -ivh http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm![]() | |||||||
# yum clean all |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.2 - 2012-11-20
| ||||||||
Line: 93 to 93 | ||||||||
| ||||||||
Changed: | ||||||||
< < | yum install openssh-clients system-config-lvm vim-enhanced xorg-x11-xauth ntp avahi | |||||||
> > | yum install openssh-clients system-config-lvm vim-enhanced xorg-x11-xauth ntp avahi libvirt libvirt-python libvirt-client | |||||||
| ||||||||
Line: 101 to 101 | ||||||||
# chkconfig ntpd on | ||||||||
Changed: | ||||||||
< < | # service ntp restart | |||||||
> > | # service ntpd restart | |||||||
| ||||||||
Line: 112 to 112 | ||||||||
# yum update | ||||||||
Changed: | ||||||||
< < | ||||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
# /etc/init.d/iptables stop | ||||||||
Line: 134 to 135 | ||||||||
/etc/init.d/messagebus restart /etc/init.d/avahi-daemon restart /etc/init.d/libvirtd restart | ||||||||
Changed: | ||||||||
< < | /sbin/chkconfig messagebus on /sbin/chkconfig avahi-daemon on | |||||||
> > | chkconfig messagebus on chkconfig avahi-daemon on | |||||||
| ||||||||
Line: 1335 to 1336 | ||||||||
Configurazione dell'Hypervisor (KVM)
| ||||||||
Changed: | ||||||||
< < | # yum install qemu-kvm qemu-img virt-manager libvirt libvirt-python python-virtinst libvirt-client bridge-utils libguestfs-tools | |||||||
> > | # yum install qemu-kvm qemu-img virt-manager python-virtinst bridge-utils libguestfs-tools | |||||||
# yum groupinstall Virtualization "Virtualization Client" "Virtualization Platform" "Virtualization Tools" |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.2 - 2012-11-20
| ||||||||
Line: 1182 to 1182 | ||||||||
# glance-manage db_sync | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
# chown -R glance:glance /var/lib/glance | ||||||||
Added: | ||||||||
> > |
| |||||||
Troubleshooting Glance
| ||||||||
Deleted: | ||||||||
< < | # cd /stackimages | |||||||
# wget https://launchpad.net/cirros/trunk/0.3.0/+download/cirros-0.3.0-x86_64-disk.img![]() | ||||||||
Changed: | ||||||||
< < | /stackimages/cirros-0.3.0-x86_64-disk.img | |||||||
> > | cirros-0.3.0-x86_64-disk.img | |||||||
Added new image with ID: 691109ac-9673-4195-a27f-8211a49bfdcb | ||||||||
Line: 1288 to 1292 | ||||||||
| ||||||||
Changed: | ||||||||
< < | consoleauth novncproxy volume objectstore | |||||||
> > | consoleauth volume objectstore | |||||||
xvpvncproxy; do chkconfig openstack-nova-$svc on; done |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.2 - 2012-11-20
| ||||||||
Line: 169 to 169 | ||||||||
Prima di configurare un volume GestioneServiziGenerali.GlusterFS è necessario creare un trusted storage pool, contenente i server che comporranno il volume. | ||||||||
Changed: | ||||||||
< < | Per permettere la condivisione del filesystem tra i nodi desiderati eseguire, su uno qualsiasi dei nodi, il comando gluster peer probe <HOSTNAME_NODE> per ognuno degli altri nodi. | |||||||
> > | Per permettere la condivisione del filesystem tra i nodi desiderati eseguire, su uno qualsiasi dei nodi, il comando gluster peer probe <HOSTNAME_NODE> per ognuno degli altri nodi. | |||||||
Ad esempio in un pool di quattro nodi (come nell'infrastruttura MarcheCloud) eseguire sull'host 192.168.200.21 : | ||||||||
Line: 635 to 635 | ||||||||
# keystone-manage db_sync | ||||||||
Added: | ||||||||
> > |
| |||||||
Creazione di tenant, utente e ruolo per l'amministratorePer comodità in questa sezione si utilizzerà uno script che farà l'export di determinate variabili. Creare il file.keystonrc e modificarlo come segue: | ||||||||
Changed: | ||||||||
< < | export ADMIN_TOKEN= | |||||||
> > | export ADMIN_TOKEN= | |||||||
export OS_USERNAME= | ||||||||
Line: 672 to 676 | ||||||||
Dove: | ||||||||
Added: | ||||||||
> > |
| |||||||
|
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.2 - 2012-11-20
| ||||||||
Line: 1410 to 1410 | ||||||||
flat_network_bridge = virbr0 flat_interface = eth2 multi_host = True | ||||||||
Changed: | ||||||||
< < | auto_assign_floating_ip = True | |||||||
> > | auto_assign_floating_ip = False | |||||||
injected_network_template = /usr/share/nova/interfaces.template allow_same_net_traffic=true | ||||||||
Line: 1731 to 1731 | ||||||||
Assegnazione IP ad una macchina virtuale | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
# nova floating-ip-create |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.2 - 2012-11-20
| ||||||||
Line: 24 to 24 | ||||||||
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# vgs | |||||||
> > | # vgs | |||||||
VG #PV #LV #SN Attr VSize VFree nova-volumes 1 3 0 wz--n- 1.64t 849.76g | ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# lvs | |||||||
> > | # lvs | |||||||
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert lv_root nova-volumes -wi-ao-- 10.00g lv_swap nova-volumes -wi-ao-- 15.90g | ||||||||
Line: 36 to 36 | ||||||||
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# ifconfig | |||||||
> > | # ifconfig | |||||||
eth0 Link encap:Ethernet HWaddr B4:B5:2F:5C:FE:70 inet addr:192.168.200.21 Bcast:192.168.200.255 Mask:255.255.255.0 inet6 addr: fe80::b6b5:2fff:fe5c:fe70/64 Scope:Link | ||||||||
Line: 93 to 93 | ||||||||
| ||||||||
Changed: | ||||||||
< < | yum install openssh-clients system-config-lvm vim-enhanced xorg-x11-xauth ntp | |||||||
> > | yum install openssh-clients system-config-lvm vim-enhanced xorg-x11-xauth ntp avahi | |||||||
| ||||||||
Line: 125 to 125 | ||||||||
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# ls /etc/yum.repos.d/ | |||||||
> > | # ls /etc/yum.repos.d/ | |||||||
CentOS-Base.repo CentOS-Debuginfo.repo CentOS-Media.repo CentOS-Vault.repo epel.repo epel-testing.repo | ||||||||
Added: | ||||||||
> > |
| |||||||
GlusterFSIl sito ufficiale di GlusterFE è http://www.gluster.org/![]() ![]() | ||||||||
Line: 353 to 363 | ||||||||
Riepilogo configurazione del filesystemI volumi di GlusterFS risulteranno essere i seguenti: | ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# gluster volume info | |||||||
> > | # gluster volume info | |||||||
Volume Name: volume-nova Type: Distributed-Replicate | ||||||||
Line: 381 to 391 | ||||||||
mcloud01 | ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# cat /etc/fstab | |||||||
> > | # cat /etc/fstab | |||||||
# # /etc/fstab | ||||||||
Line: 400 to 410 | ||||||||
/dev/nova-volumes/lv_nova /mnt/brick-nova ext4 defaults 1 1 192.168.200.21:/volume-glance /var/lib/glance/images glusterfs defaults 1 1 | ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# mount | |||||||
> > | # mount | |||||||
/dev/mapper/nova--volumes-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) | ||||||||
Line: 411 to 421 | ||||||||
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) 192.168.200.21:/volume-glance on /var/lib/glance/images type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072) | ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# df -mh | |||||||
> > | # df -mh | |||||||
Filesystem Size Used Avail Use% Mounted on /dev/mapper/nova--volumes-lv_root 9.9G 1.4G 8.1G 15% / | ||||||||
Line: 425 to 435 | ||||||||
mcloud02 | ||||||||
Changed: | ||||||||
< < | [root@mcloud02 ~]# cat /etc/fstab | |||||||
> > | # cat /etc/fstab | |||||||
# # /etc/fstab | ||||||||
Line: 445 to 455 | ||||||||
/dev/nova-volumes/lv_nova /mnt/brick-nova ext4 defaults 1 1 192.168.200.22:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1 | ||||||||
Changed: | ||||||||
< < | [root@mcloud02 ~]# mount | |||||||
> > | # mount | |||||||
/dev/mapper/nova--volumes-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) | ||||||||
Line: 457 to 467 | ||||||||
/dev/mapper/nova--volumes-lv_nova on /mnt/brick-nova type ext4 (rw) 192.168.200.22:/volume-nova on /var/lib/nova/instances type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072) | ||||||||
Changed: | ||||||||
< < | [root@mcloud02 ~]# df -mh | |||||||
> > | # df -mh | |||||||
Filesystem Size Used Avail Use% Mounted on /dev/mapper/nova--volumes-lv_root 9.9G 886M 8.5G 10% / | ||||||||
Line: 473 to 483 | ||||||||
mcloud03 | ||||||||
Changed: | ||||||||
< < | [root@mcloud03 ~]# cat /etc/fstab | |||||||
> > | # cat /etc/fstab | |||||||
# # /etc/fstab | ||||||||
Line: 493 to 503 | ||||||||
/dev/nova-volumes/lv_nova /mnt/brick-nova ext4 defaults 1 1 192.168.200.23:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1 | ||||||||
Changed: | ||||||||
< < | [root@mcloud03 ~]# mount | |||||||
> > | # mount | |||||||
/dev/mapper/nova--volumes-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) | ||||||||
Line: 505 to 515 | ||||||||
/dev/mapper/nova--volumes-lv_nova on /mnt/brick-nova type ext4 (rw) 192.168.200.23:/volume-nova on /var/lib/nova/instances type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072) | ||||||||
Changed: | ||||||||
< < | [root@mcloud03 ~]# df -mh | |||||||
> > | # df -mh | |||||||
Filesystem Size Used Avail Use% Mounted on /dev/mapper/nova--volumes-lv_root 9.9G 886M 8.5G 10% / | ||||||||
Line: 521 to 531 | ||||||||
mcloud04 | ||||||||
Changed: | ||||||||
< < | [root@mcloud04 ~]# cat /etc/fstab | |||||||
> > | # cat /etc/fstab | |||||||
# # /etc/fstab | ||||||||
Line: 541 to 551 | ||||||||
/dev/nova-volumes/lv_nova /mnt/brick-nova ext4 defaults 1 1 192.168.200.24:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1 | ||||||||
Changed: | ||||||||
< < | [root@mcloud04 ~]# mount | |||||||
> > | # mount | |||||||
/dev/mapper/nova--volumes-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) | ||||||||
Line: 553 to 563 | ||||||||
/dev/mapper/nova--volumes-lv_nova on /mnt/brick-nova type ext4 (rw) 192.168.200.24:/volume-nova on /var/lib/nova/instances type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072) | ||||||||
Changed: | ||||||||
< < | [root@mcloud04 ~]# df -mh | |||||||
> > | # df -mh | |||||||
Filesystem Size Used Avail Use% Mounted on /dev/mapper/nova--volumes-lv_root 9.9G 886M 8.5G 10% / | ||||||||
Line: 982 to 992 | ||||||||
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# keystone tenant-list | |||||||
> > | # keystone tenant-list | |||||||
+----------------------------------+-------------+---------+
| ||||||||
Line: 991 to 1001 | ||||||||
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# keystone user-list | |||||||
> > | # keystone user-list | |||||||
+----------------------------------+------------+---------+----------------+
| ||||||||
Line: 1001 to 1011 | ||||||||
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# keystone service-list | |||||||
> > | # keystone service-list | |||||||
+----------------------------------+----------+----------+---------------------------+
| ||||||||
Line: 1011 to 1021 | ||||||||
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# keystone endpoint-list | |||||||
> > | # keystone endpoint-list | |||||||
+----------------------------------+-----------+---------------------------------------------+---------------------------------------------+---------------------------------------------+----------------------------------+
| ||||||||
Line: 1021 to 1031 | ||||||||
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 ~]# keystone catalog | |||||||
> > | # keystone catalog | |||||||
Service: volume
+-------------+----------------------------------------------------------------+
| ||||||||
Line: 1176 to 1186 | ||||||||
Troubleshooting Glance
| ||||||||
Changed: | ||||||||
< < | [root@mcloud01 stackimages]# cd /stackimages | |||||||
> > | # cd /stackimages | |||||||
Changed: | ||||||||
< < | [root@mcloud01 stackimages]# wget | |||||||
> > | # wget | |||||||
https://launchpad.net/cirros/trunk/0.3.0/+download/cirros-0.3.0-x86_64-disk.img![]() | ||||||||
Changed: | ||||||||
< < | [root@mcloud01 stackimages]# glance add name=cirros-0.3.0-x86_64 | |||||||
> > | # glance add name=cirros-0.3.0-x86_64 | |||||||
disk_format=qcow2 container_format=bare < /stackimages/cirros-0.3.0-x86_64-disk.img Added new image with ID: 691109ac-9673-4195-a27f-8211a49bfdcb | ||||||||
Changed: | ||||||||
< < | [root@mcloud01 stackimages]# glance index | |||||||
> > | # glance index | |||||||
ID Name Disk Format Container Format Size
------------------------------ -------------------- -------------------- -------------- 691109ac-9673-4195-a27f-8211a49bfdcb cirros-0.3.0-x86_64 qcow2 bare 9761280 | ||||||||
Changed: | ||||||||
< < | [root@mcloud01 stackimages]# ls /var/lib/glance/images/ | |||||||
> > | # ls /var/lib/glance/images/ | |||||||
691109ac-9673-4195-a27f-8211a49bfdcb lost+found | ||||||||
Line: 1267 to 1277 | ||||||||
[...] | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Line: 1360 to 1370 | ||||||||
Servizio nova | ||||||||
Added: | ||||||||
> > |
| |||||||
| ||||||||
Line: 1378 to 1392 | ||||||||
libvirt_xml_template = /usr/share/nova/libvirt.xml.template # sql | ||||||||
Changed: | ||||||||
< < | sql_connection = mysql://nova:PASSWORD_UTENTE_DB_NOVA@clstr-09.cnaf.infn.it/nova | |||||||
> > | sql_connection = mysql://nova:PASSWORD_UTENTE_DB_NOVA@192.168.200.21/nova | |||||||
# authentication auth_strategy = keystone | ||||||||
Line: 1396 to 1410 | ||||||||
flat_network_bridge = virbr0 flat_interface = eth2 multi_host = True | ||||||||
Changed: | ||||||||
< < | auto_assign_floating_ip = False | |||||||
> > | auto_assign_floating_ip = True | |||||||
injected_network_template = /usr/share/nova/interfaces.template allow_same_net_traffic=true | ||||||||
Line: 1404 to 1418 | ||||||||
vnc_enabled = True vncserver_listen = 0.0.0.0 vncserver_proxyclient_address = THIS_SERVER_IP | ||||||||
Changed: | ||||||||
< < | novncproxy_base_url=http://clstr-09.cnaf.infn.it:6080/vnc_auto.html xvpvncproxy_base_url=http://clstr-09.cnaf.infn.it:6081/console | |||||||
> > | novncproxy_base_url=http://10.101.8.21:6080/vnc_auto.html xvpvncproxy_base_url=http://10.101.8.21:6081/console | |||||||
# qpid | ||||||||
Changed: | ||||||||
< < | qpid_hostname = clstr-09.cnaf.infn.it | |||||||
> > | qpid_hostname = 10.101.8.21 | |||||||
rpc_backend = nova.rpc.impl_qpid # glance image_service=nova.image.glance.GlanceImageService | ||||||||
Changed: | ||||||||
< < | glance_api_servers=clstr-09.cnaf.infn.it:9292 | |||||||
> > | glance_api_servers=10.101.8.21:9292 | |||||||
cache_images=true # other | ||||||||
Line: 1431 to 1445 | ||||||||
volume_group = nova-volumes iscsi_helper = tgtadm | ||||||||
Deleted: | ||||||||
< < | ### default configurations # volume_name_template = volume-%08x # volumes_dir = /etc/nova/volumes # [keystone_authtoken] # admin_tenant_name = %SERVICE_TENANT_NAME% # admin_user = %SERVICE_USER% # admin_password = %SERVICE_PASSWORD% # auth_host = 127.0.0.1 # auth_port = 35357 # auth_protocol = http # signing_dirname = /tmp/keystone-signing-nova | |||||||
Dove:
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Line: 1461 to 1460 | ||||||||
[filter:authtoken] paste.filter_factory = keystone.middleware.auth_token:filter_factory | ||||||||
Deleted: | ||||||||
< < | ||||||||
service_protocol = http | ||||||||
Changed: | ||||||||
< < | service_host = clstr-09.cnaf.infn.it | |||||||
> > | service_host = 192.168.200.21 | |||||||
service_port = 5000 | ||||||||
Changed: | ||||||||
< < | auth_host = clstr-09.cnaf.infn.it | |||||||
> > | auth_host = 192.168.200.21 | |||||||
auth_port = 35357 auth_protocol = http | ||||||||
Changed: | ||||||||
< < | auth_uri = http://clstr-09.cnaf.infn.it:5000/![]() | |||||||
> > | auth_uri = http://![]() | |||||||
admin_tenant_name = service admin_user = nova admin_password = NOVA_PASSWORD | ||||||||
Line: 1497 to 1495 | ||||||||
# nova-manage service list Binary Host Zone Status State Updated_At | ||||||||
Changed: | ||||||||
< < | nova-cert clstr-09.cnaf.infn.it nova enabled ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | |||||||
> > | nova-consoleauth mcloud01.regionemarche.intra nova enabled ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | |||||||
Configurazione del servizio | ||||||||
Line: 1524 to 1523 | ||||||||
RX bytes:0 (0.0 b) TX bytes:5681 (5.5 KiB) | ||||||||
Deleted: | ||||||||
< < |
ip link set eth1 promisc on | |||||||
NB: DA UN QUALSIASI SERVER UNA VOLTA SOLA
| ||||||||
Line: 1536 to 1530 | ||||||||
# nova-manage network create private --multi_host=T --fixed_range_v4=192.168.122.0/24 --bridge_interface=virbr0 | ||||||||
Changed: | ||||||||
< < | --num_networks=1 --network_size=256 | |||||||
> > | --num_networks=1 --network_size=256 --dns1=10.101.12.10 --dns2=10.101.12.11 | |||||||
# nova-manage network list id IPv4 IPv6 start address DNS1 DNS2 VlanID project uuid | ||||||||
Changed: | ||||||||
< < | 1 192.168.122.0/24 None 192.168.122.2 8.8.4.4 None None None 03f392b7-16bd-4ea0-a1c0-897fdebd1f0c | |||||||
> > | 6 192.168.122.0/24 None 192.168.122.2 10.101.12.10 10.101.12.11 None None a51798f8-3c2a-48f3-ad19-54ab2048bf7e | |||||||
| ||||||||
Line: 1676 to 1671 | ||||||||
Utilizzo della Dashboard | ||||||||
Changed: | ||||||||
< < | Per verificare il funzionamento della Dashboard, andare su http://clstr-09.cnaf.infn.it/dashboard![]() adminUser e relativa password. | |||||||
> > | Per verificare il funzionamento della Dashboard, andare su http://10.101.8.21/dashboard![]() adminUser e relativa password.
Casi d'usoConfigurazione degli indirizzi IP Floating pubblici
Abilitazione di IP forwarding
Creare una lista di floating IP
Assegnazione IP ad una macchina virtuale
Gestione gruppi sicurezzaPer accedere, tramite dashboard, alla pagina di gestione dei gruppi di sicurezza andare inProject -> Access & Security . La seconda tabella di questa pagina permette la gestione dei gruppi di sicurezza: per poter utilizzare una qualsiasi porta di un'istanza è necessario aggiungere tale porta al rispettivo gruppo di sicurezza. Ad esempio per poter accedere ad una web application installata nell'istanza è necessario aggiungere la porta 80 tra le regole di sicurezza del gruppo associato a quell'istanza.
Live migrationCon Live Migration si intende la possibilita' da parte dell'amministratore di OpenStack di migrare una VM da un Compute Node ad un altro senza discontinuita' di servizio. Questa operazione e' utile per fare manutenzione su un Compute Node.
44806b1a-6157-417d-8437-ef36871bb6fd viene migrata dal compute node mcloud02.regionemarche.intra a mcloud03.regionemarche.intra .
# nova show 44806b1a-6157-417d-8437-ef36871bb6fd +-------------------------------------+------------------------------------------------------------+ | Property | Value | +-------------------------------------+------------------------------------------------------------+ | OS-DCF:diskConfig | MANUAL | | OS-EXT-SRV-ATTR:host | mcloud02.regionemarche.intra | | OS-EXT-SRV-ATTR:hypervisor_hostname | mcloud02.regionemarche.intra | | OS-EXT-SRV-ATTR:instance_name | instance-0000002a | | OS-EXT-STS:power_state | 1 | | OS-EXT-STS:task_state | None | | OS-EXT-STS:vm_state | active | | accessIPv4 | | | accessIPv6 | | | config_drive | | | created | 2012-11-29T16:36:58Z | | flavor | MCloud Flavor (6) | | hostId | bdafa05a4a5a5e92b059ab59db5bf40cce604edcd547930a1cf0efb0 | | id | 44806b1a-6157-417d-8437-ef36871bb6fd | | image | Osuse_mcloud_281112 (28a1a678-1410-4235-a697-6de2e4fade51) | | key_name | None | | metadata | {} | | name | Osuse_instance_andrea | | private network | 192.168.122.4, 10.101.8.130 | | progress | 0 | | security_groups | [{u'name': u'default'}] | | status | ACTIVE | | tenant_id | 7e266325c0ca4e01aa0a12f54c00adc5 | | updated | 2012-11-29T17:07:46Z | | user_id | 5267588ce6694b1da88144a11e586106 | +-------------------------------------+------------------------------------------------------------+ # nova live-migration 44806b1a-6157-417d-8437-ef36871bb6fd mcloud03.regionemarche.intra # nova show 44806b1a-6157-417d-8437-ef36871bb6fd +-------------------------------------+------------------------------------------------------------+ | Property | Value | +-------------------------------------+------------------------------------------------------------+ | OS-DCF:diskConfig | MANUAL | | OS-EXT-SRV-ATTR:host | mcloud03.regionemarche.intra | | OS-EXT-SRV-ATTR:hypervisor_hostname | mcloud03.regionemarche.intra | | OS-EXT-SRV-ATTR:instance_name | instance-0000002a | | OS-EXT-STS:power_state | 1 | | OS-EXT-STS:task_state | None | | OS-EXT-STS:vm_state | active | | accessIPv4 | | | accessIPv6 | | | config_drive | | | created | 2012-11-29T16:36:58Z | | flavor | MCloud Flavor (6) | | hostId | bdafa05a4a5a5e92b059ab59db5bf40cce604edcd547930a1cf0efb0 | | id | 44806b1a-6157-417d-8437-ef36871bb6fd | | image | Osuse_mcloud_281112 (28a1a678-1410-4235-a697-6de2e4fade51) | | key_name | None | | metadata | {} | | name | Osuse_instance_andrea | | private network | 192.168.122.4, 10.101.8.130 | | progress | 0 | | security_groups | [{u'name': u'default'}] | | status | ACTIVE | | tenant_id | 7e266325c0ca4e01aa0a12f54c00adc5 | | updated | 2012-11-29T17:07:46Z | | user_id | 5267588ce6694b1da88144a11e586106 | +-------------------------------------+------------------------------------------------------------+ | |||||||
|
Line: 1 to 1 | |||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.2 - 2012-11-20
| |||||||||||||||||||||||||
Line: 7 to 7 | |||||||||||||||||||||||||
TestbedTabella Hostnames / IPs dei server che compongono l'infrastruttura pilota | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
Controlli preliminari dell'ambiente software da effettuare su ogni server | |||||||||||||||||||||||||
Line: 34 to 34 | |||||||||||||||||||||||||
lv_swap nova-volumes -wi-ao-- 15.90g | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
[root@mcloud01 ~]# ifconfig eth0 Link encap:Ethernet HWaddr B4:B5:2F:5C:FE:70 inet addr:192.168.200.21 Bcast:192.168.200.255 Mask:255.255.255.0 inet6 addr: fe80::b6b5:2fff:fe5c:fe70/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | RX packets:144871 errors:0 dropped:0 overruns:0 frame:0 TX packets:144988 errors:0 dropped:0 overruns:0 carrier:0 | ||||||||||||||||||||||||
> > | RX packets:49059623 errors:0 dropped:0 overruns:0 frame:0 TX packets:20760293 errors:0 dropped:0 overruns:0 carrier:0 | ||||||||||||||||||||||||
collisions:0 txqueuelen:1000 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | RX bytes:9542293 (9.1 MiB) TX bytes:9416614 (8.9 MiB) | ||||||||||||||||||||||||
> > | RX bytes:47573641634 (44.3 GiB) TX bytes:49395841919 (46.0 GiB) | ||||||||||||||||||||||||
Interrupt:92 eth1 Link encap:Ethernet HWaddr B4:B5:2F:5C:FE:71 inet addr:10.101.8.21 Bcast:10.101.9.255 Mask:255.255.254.0 inet6 addr: fe80::b6b5:2fff:fe5c:fe71/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | RX packets:2089 errors:0 dropped:0 overruns:0 frame:0 TX packets:2178 errors:0 dropped:0 overruns:0 carrier:0 | ||||||||||||||||||||||||
> > | RX packets:85066 errors:0 dropped:0 overruns:0 frame:0 TX packets:58474 errors:0 dropped:0 overruns:0 carrier:0 | ||||||||||||||||||||||||
collisions:0 txqueuelen:1000 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | RX bytes:247902 (242.0 KiB) TX bytes:353338 (345.0 KiB) | ||||||||||||||||||||||||
> > | RX bytes:14284835 (13.6 MiB) TX bytes:42927456 (40.9 MiB) | ||||||||||||||||||||||||
Interrupt:96 | |||||||||||||||||||||||||
Added: | |||||||||||||||||||||||||
> > | eth2 Link encap:Ethernet HWaddr B4:B5:2F:5C:FE:72 inet6 addr: fe80::b6b5:2fff:fe5c:fe72/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:762806 errors:0 dropped:0 overruns:0 frame:0 TX packets:174684 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:78052445 (74.4 MiB) TX bytes:11460443 (10.9 MiB) Interrupt:100 | ||||||||||||||||||||||||
lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:16436 Metric:1 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | RX packets:41853 errors:0 dropped:0 overruns:0 frame:0 TX packets:41853 errors:0 dropped:0 overruns:0 carrier:0 | ||||||||||||||||||||||||
> > | RX packets:10325996 errors:0 dropped:0 overruns:0 frame:0 TX packets:10325996 errors:0 dropped:0 overruns:0 carrier:0 | ||||||||||||||||||||||||
collisions:0 txqueuelen:0 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | RX bytes:2350159 (2.2 MiB) TX bytes:2350159 (2.2 MiB) | ||||||||||||||||||||||||
> > | RX bytes:3852026297 (3.5 GiB) TX bytes:3852026297 (3.5 GiB) | ||||||||||||||||||||||||
Line: 152 to 161 | |||||||||||||||||||||||||
Per permettere la condivisione del filesystem tra i nodi desiderati eseguire, su uno qualsiasi dei nodi, il comando gluster peer probe <HOSTNAME_NODE> per ognuno degli altri nodi. | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Ad esempio in un pool di quattro nodi (con hostname rispettivamente hostname1.domain , hostname2.domain , hostname3.domain , hostname4.domain ) eseguire sull'host hostname1.domain : | ||||||||||||||||||||||||
> > | Ad esempio in un pool di quattro nodi (come nell'infrastruttura MarcheCloud) eseguire sull'host 192.168.200.21 : | ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | # gluster peer probe hostname2.domain # gluster peer probe hostname3.domain # gluster peer probe hostname4.domain | ||||||||||||||||||||||||
> > | # gluster peer probe 192.168.200.22 # gluster peer probe 192.168.200.23 # gluster peer probe 192.168.200.24 | ||||||||||||||||||||||||
Per controllare che la creazione del pool sia andata a buon fine, lanciare il comando gluster peer status su uno dei nodi. In output verrà visualizzata la composizione del pool. | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Ad esempio lanciandolo su hostname1.domain si otterrà: | ||||||||||||||||||||||||
> > | Ad esempio lanciandolo su 192.168.200.21 si otterrà: | ||||||||||||||||||||||||
# gluster peer status Number of Peers: 3 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Hostname: hostname2.domain Uuid: 2088ff36-dbf9-44a3-9b3b-8a3a94d64cd4 | ||||||||||||||||||||||||
> > | Hostname: 192.168.200.23 Uuid: c170f9ab-21f9-4382-98a7-cdff443fc696 | ||||||||||||||||||||||||
State: Peer in Cluster (Connected) | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Hostname: hostname3.domain Uuid: ce7b0621-4068-43e4-b2a5-585c23ade1de | ||||||||||||||||||||||||
> > | Hostname: 192.168.200.24 Uuid: 2a4733bf-f1e6-4e68-a526-7c52da574c23 | ||||||||||||||||||||||||
State: Peer in Cluster (Connected) | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Hostname: hostname4.domain Uuid: ae5dfd23-4a65-a2e6-be85-3e5c11abe5cd | ||||||||||||||||||||||||
> > | Hostname: 192.168.200.22 Uuid: 55e2e264-4359-417d-9da2-ab7032b9a293 | ||||||||||||||||||||||||
State: Peer in Cluster (Connected) | |||||||||||||||||||||||||
Line: 261 to 270 | |||||||||||||||||||||||||
Creazione del volume condiviso | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | I Brick vengono utlizzati per comporre il volume di storage condiviso sui nodi. La creazione del volume può essere effettuata su uno qualsiasi dei nodi che compongono il trusted storage pool. Ciascun Brick è identificato dalla combinazione del nome del server con la directory da esportare, nel seguente formato hostname1.domain:/mnt/mydir . | ||||||||||||||||||||||||
> > | I Brick vengono utlizzati per comporre il volume di storage condiviso sui nodi. La creazione del volume può essere effettuata su uno qualsiasi dei nodi che compongono il trusted storage pool. Ciascun Brick è identificato dalla combinazione del nome del server con la directory da esportare, nel seguente formato hostname.domain:/mnt/mydir . | ||||||||||||||||||||||||
Creazione del volume condiviso per GLANCENota bene:
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
# gluster volume create volume-glance replica 3 transport tcp \ | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | hostname2.domain:/mnt/brick-glance hostname3.domain:/mnt/brick-glance hostname4.domain:/mnt/brick-glance | ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
Far partire il vomune appena creato: | |||||||||||||||||||||||||
Line: 295 to 304 | |||||||||||||||||||||||||
Editare il file /etc/fstab (se necessario creare la directory /var/lib/glance/images ): | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | hostname1.domain:/volume-glance /var/lib/glance/images glusterfs defaults 1 1 | ||||||||||||||||||||||||
> > | 192.168.200.21:/volume-glance /var/lib/glance/images glusterfs defaults 1 1 | ||||||||||||||||||||||||
Montare il volume condiviso: | |||||||||||||||||||||||||
Line: 309 to 318 | |||||||||||||||||||||||||
Nota bene:
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
# gluster volume create volume-nova replica 2 transport tcp \ | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | hostname1.domain:/mnt/brick-nova hostname2.domain:/mnt/brick-nova hostname3.domain:/mnt/brick-nova hostname4.domain:/mnt/brick-nova | ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
Far partire il vomune appena creato: | |||||||||||||||||||||||||
Line: 561 to 570 | |||||||||||||||||||||||||
Installazione servizi di OpenStackOpenStack è una suite di servizi. Nell'ambito del progetto sono stati installati i servizi minimi essenziali al raggiungimento degli obiettivi del progetto stesso e provati alcuni altri servizi e scenari di interesse per prendere familiarità e capire le potenzialità di alcune componenti. Questi scenari verranno descritti nella sezione Use case della presente guida. | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | La release di OpenStack al momento disponibile nel repository EPEL è la Folstom (code 2012.2) rilasciata nell'Ottobre 2012. | ||||||||||||||||||||||||
> > | La release di OpenStack al momento disponibile nel repository EPEL è la Folsom (code 2012.2) rilasciata nell'Ottobre 2012. | ||||||||||||||||||||||||
Le seguenti istruzioni sono da considerarsi come un'aggiunta e una guida passo passo all'installazione e configurazione dei servizi partendo dalla documentazione ufficiale di Openstack disponibile in http://docs.openstack.org/folsom/openstack-compute/install/yum/content/![]() ![]() KeystoneInstallazione Keystone | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Server designato per l'installazione: hostname1.domain. | ||||||||||||||||||||||||
> > | Server designato per l'installazione: 192.168.200.21. | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Line: 597 to 606 | |||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | connection = mysql://keystone:keystone@hostname1.domain/keystone | ||||||||||||||||||||||||
> > | connection = mysql://keystone:keystone@192.168.200.21/keystone | ||||||||||||||||||||||||
Nota bene: in keystone:keystone il primo keystone è il nome utente, il secondo è la password. Utilizzando il comando openstack-db --init --service keystone per l'inizializzazione del DB keystone verranno utilizzati quei valori di default. | |||||||||||||||||||||||||
Line: 662 to 671 | |||||||||||||||||||||||||
# source .keystonerc | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | N.B. I campi vuoti dello script verranno riempiti man mano che verranno lanciate le seguenti istruzioni, si imposteranno le password e si otterranno gli ID. Ad ogni ID ottenuto, modificare il file .keystonerc e rifarne il source . | ||||||||||||||||||||||||
> > | N.B. I campi vuoti dello script verranno riempiti man mano che verranno lanciate le seguenti istruzioni, si imposteranno le password e si otterranno gli ID. Ad ogni ID ottenuto, modificare il file .keystonerc (inserendo l'ID ed eventualmente la password associata) e rifarne il source . | ||||||||||||||||||||||||
Creazione del tenant "adminTenant"Definizione di tenant: Un tenant è un contenitore usato per raggruppare risorse o utenti. | |||||||||||||||||||||||||
Line: 678 to 687 | |||||||||||||||||||||||||
+-------------+----------------------------------+
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Line: 694 to 703 | |||||||||||||||||||||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+ | |||||||||||||||||||||||||
Line: 713 to 722 | |||||||||||||||||||||||||
+----------+----------------------------------+
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Line: 742 to 751 | |||||||||||||||||||||||||
+-------------+----------------------------------+
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Deleted: | |||||||||||||||||||||||||
< < | |||||||||||||||||||||||||
Creazione ed inserimento degli utenti associati ai serviziUna volta creato il "Service Tenant", si andrà ad inserire al suo interno un utente per ogni servizio che si vuole aggiungere. | |||||||||||||||||||||||||
Line: 761 to 769 | |||||||||||||||||||||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+ | |||||||||||||||||||||||||
Line: 791 to 799 | |||||||||||||||||||||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+ | |||||||||||||||||||||||||
Line: 832 to 840 | |||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Line: 845 to 853 | |||||||||||||||||||||||||
--region RegionOne --service_id=$KEYSTONE_SERVICE_ID --publicurl=$KEYSTONE5000 --internalurl=$KEYSTONE5000 --adminurl=$ENDPOINT | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+----------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+-----------------------------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+----------------------------------------------+
| ||||||||||||||||||||||||
> > | +-------------+-----------------------------------+
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
Definizione del servizio compute (Nova) | |||||||||||||||||||||||||
Line: 868 to 876 | |||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Line: 882 to 890 | |||||||||||||||||||||||||
--publicurl='http:// | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+--------------------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+---------------------------------------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+--------------------------------------------------------+
| ||||||||||||||||||||||||
> > | +-------------+---------------------------------------------+
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Dove <CLOUD_CONTROLLER_HOSTNAME> è l'hostname del Cloud Controller (Nova). Nel nostro caso è "clstr-09.cnaf.infn.it". | ||||||||||||||||||||||||
> > | Dove <CLOUD_CONTROLLER_HOSTNAME> è l'hostname del Cloud Controller (Nova). Nel nostro caso è 192.168.200.21 . | ||||||||||||||||||||||||
Definizione del servizio volume (Volume)Il servizio volume richiede un endpoint specifico per ogni tenant. | |||||||||||||||||||||||||
Line: 906 to 914 | |||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Line: 920 to 928 | |||||||||||||||||||||||||
--publicurl='http:// | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+--------------------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+---------------------------------------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+--------------------------------------------------------+
| ||||||||||||||||||||||||
> > | +-------------+---------------------------------------------+
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Dove <CLOUD_CONTROLLER_HOSTNAME> è l'hostname del Cloud Controller (Nova). Nel nostro caso è "clstr-09.cnaf.infn.it". | ||||||||||||||||||||||||
> > | Dove <CLOUD_CONTROLLER_HOSTNAME> è l'hostname del Cloud Controller (Nova). Nel nostro caso è 192.168.200.21 . | ||||||||||||||||||||||||
Definizione del servizio image (Glance)
| |||||||||||||||||||||||||
Line: 942 to 950 | |||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Line: 956 to 964 | |||||||||||||||||||||||||
--publicurl=http:// | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+----------------------------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+------------------------------------------+
| ||||||||||||||||||||||||
> > | +-------------+----------------------------------+
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Dove <GLANCE_SERVER_HOSTNAME> è l'hostname del server sui è installato il servizio Glance. Nel nostro caso è "clstr-09.cnaf.infn.it". | ||||||||||||||||||||||||
> > | Dove <GLANCE_SERVER_HOSTNAME> è l'hostname del server sui è installato il servizio Glance. Nel nostro caso è 192.168.200.21 . | ||||||||||||||||||||||||
Troubleshooting Keystone
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | [root@clstr-09 ~]# keystone tenant-list | ||||||||||||||||||||||||
> > | [root@mcloud01 ~]# keystone tenant-list | ||||||||||||||||||||||||
+----------------------------------+-------------+---------+
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
+----------------------------------+-------------+---------+ | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | [root@clstr-09 ~]# keystone user-list +----------------------------------+-----------+---------+-------+ | ||||||||||||||||||||||||
> > | [root@mcloud01 ~]# keystone user-list +----------------------------------+------------+---------+----------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +----------------------------------+-----------+---------+-------+
| ||||||||||||||||||||||||
> > | +----------------------------------+------------+---------+----------------+
| ||||||||||||||||||||||||
+----------------------------------+----------+----------+---------------------------+
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
+----------------------------------+----------+----------+---------------------------+ | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | [root@clstr-09 ~]# keystone endpoint-list +----------------------------------+-----------+----------------------------------------------------+----------------------------------------------------+----------------------------------------------------+----------------------------------+ | ||||||||||||||||||||||||
> > | [root@mcloud01 ~]# keystone endpoint-list +----------------------------------+-----------+---------------------------------------------+---------------------------------------------+---------------------------------------------+----------------------------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +----------------------------------+-----------+----------------------------------------------------+----------------------------------------------------+----------------------------------------------------+----------------------------------+
| ||||||||||||||||||||||||
> > | +----------------------------------+-----------+---------------------------------------------+---------------------------------------------+---------------------------------------------+----------------------------------+
| ||||||||||||||||||||||||
Service: volume | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+-----------------------------------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+----------------------------------------------------------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+-----------------------------------------------------------------------+
| ||||||||||||||||||||||||
> > | +-------------+----------------------------------------------------------------+
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+-----------------------------------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+----------------------------------+ | ||||||||||||||||||||||||
Service: compute | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+-----------------------------------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+----------------------------------------------------------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+-----------------------------------------------------------------------+
| ||||||||||||||||||||||||
> > | +-------------+----------------------------------------------------------------+
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+-----------------------------------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+----------------------------------------------------------------+ | ||||||||||||||||||||||||
Service: identity | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+-----------------------------------+ | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+------------------------------------------+
| ||||||||||||||||||||||||
> > | +-------------+-----------------------------------+
| ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | +-------------+------------------------------------------+ | ||||||||||||||||||||||||
> > | +-------------+-----------------------------------+ | ||||||||||||||||||||||||
GlanceInstallazione Glance | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | Server designato per l'installazione: hostname1.domain. | ||||||||||||||||||||||||
> > | Server designato per l'installazione: 192.168.200.21. | ||||||||||||||||||||||||
| |||||||||||||||||||||||||
Line: 1149 to 1174 | |||||||||||||||||||||||||
Troubleshooting Glance | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < |
| ||||||||||||||||||||||||
> > |
| ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | # mkdir /stackimages | ||||||||||||||||||||||||
> > | [root@mcloud01 stackimages]# cd /stackimages | ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | # cd /stackimages | ||||||||||||||||||||||||
> > | [root@mcloud01 stackimages]# wget https://launchpad.net/cirros/trunk/0.3.0/+download/cirros-0.3.0-x86_64-disk.img![]() | ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | # wget https://launchpad.net/cirros/trunk/0.3.0/+download/cirros-0.3.0-x86_64-disk.img![]() | ||||||||||||||||||||||||
> > | [root@mcloud01 stackimages]# glance add name=cirros-0.3.0-x86_64 disk_format=qcow2 container_format=bare < /stackimages/cirros-0.3.0-x86_64-disk.img | ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | # glance index | ||||||||||||||||||||||||
> > | Added new image with ID: 691109ac-9673-4195-a27f-8211a49bfdcb | ||||||||||||||||||||||||
Deleted: | |||||||||||||||||||||||||
< < | # glance add name=cirros-0.3.0-x86_64 disk_format=qcow2 \ container_format=bare < /stackimages/cirros-0.3.0-x86_64-disk.img Uploading image 'cirros-0.3.0-x86_64' ================================================================================================================================================================================[100%] 23.2M/s, ETA 0h 0m 0s Added new image with ID: a08912a4-3c73-4b17-9d96-bed2d1290d3d | ||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | # glance index | ||||||||||||||||||||||||
> > | [root@mcloud01 stackimages]# glance index | ||||||||||||||||||||||||
ID Name Disk Format Container Format Size
------------------------------ -------------------- -------------------- -------------- | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | a08912a4-3c73-4b17-9d96-bed2d1290d3d cirros-0.3.0-x86_64 qcow2 bare 9761280 | ||||||||||||||||||||||||
> > | 691109ac-9673-4195-a27f-8211a49bfdcb cirros-0.3.0-x86_64 qcow2 bare 9761280
[root@mcloud01 stackimages]# ls /var/lib/glance/images/
691109ac-9673-4195-a27f-8211a49bfdcb lost+found
# glance show 691109ac-9673-4195-a27f-8211a49bfdcb
URI: http://192.168.200.21:9292/v1/images/691109ac-9673-4195-a27f-8211a49bfdcb![]() | ||||||||||||||||||||||||
Line: 1349 to 1391 | |||||||||||||||||||||||||
dhcpbridge_flagfile = /etc/nova/nova.conf firewall_driver = nova.virt.libvirt.firewall.IptablesFirewallDriver my_ip = THIS_SERVER_IP | |||||||||||||||||||||||||
Deleted: | |||||||||||||||||||||||||
< < | # fixed_range is eth1 network | ||||||||||||||||||||||||
fixed_range = 192.168.122.0/24 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | public_interface = eth0 | ||||||||||||||||||||||||
> > | public_interface = eth1 | ||||||||||||||||||||||||
flat_network_bridge = virbr0 | |||||||||||||||||||||||||
Changed: | |||||||||||||||||||||||||
< < | flat_interface = eth1 | ||||||||||||||||||||||||
> > | flat_interface = eth2 | ||||||||||||||||||||||||
multi_host = True auto_assign_floating_ip = False injected_network_template = /usr/share/nova/interfaces.template |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.2 - 2012-11-20
| ||||||||
Line: 24 to 24 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # vgdisplay --- Volume group --- VG Name nova-volumes System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 4 VG Access read/write VG Status resizable MAX LV 0 Cur LV 3 Open LV 3 Max PV 0 Cur PV 1 Act PV 1 VG Size 557,37 GiB PE Size 4,00 MiB Total PE 142687 Alloc PE / Size 55748 / 217,77 GiB Free PE / Size 86939 / 339,61 GiB VG UUID 6x1Q85-hjml-folN-VzIo-0Atn-f2H9-x1hZ4m | |||||||
> > | [root@mcloud01 ~]# vgs VG #PV #LV #SN Attr VSize VFree nova-volumes 1 3 0 wz--n- 1.64t 849.76g | |||||||
Changed: | ||||||||
< < | # lvs | |||||||
> > | [root@mcloud01 ~]# lvs | |||||||
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert | ||||||||
Changed: | ||||||||
< < | lv_nova nova-volumes -wi-ao-- 200,00g lv_root nova-volumes -wi-ao-- 9,77g lv_swap nova-volumes -wi-ao-- 8,00g | |||||||
> > | lv_root nova-volumes -wi-ao-- 10.00g lv_swap nova-volumes -wi-ao-- 15.90g | |||||||
| ||||||||
Changed: | ||||||||
< < | # ifconfig eth0 Link encap:Ethernet HWaddr 00:25:90:4A:A9:08 inet addr:131.154.101.103 Bcast:131.154.101.255 Mask:255.255.255.0 inet6 addr: fe80::225:90ff:fe4a:a908/64 Scope:Link | |||||||
> > | [root@mcloud01 ~]# ifconfig eth0 Link encap:Ethernet HWaddr B4:B5:2F:5C:FE:70 inet addr:192.168.200.21 Bcast:192.168.200.255 Mask:255.255.255.0 inet6 addr: fe80::b6b5:2fff:fe5c:fe70/64 Scope:Link | |||||||
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 | ||||||||
Changed: | ||||||||
< < | RX packets:1614529 errors:1 dropped:0 overruns:0 frame:1 TX packets:158071 errors:0 dropped:0 overruns:0 carrier:0 | |||||||
> > | RX packets:144871 errors:0 dropped:0 overruns:0 frame:0 TX packets:144988 errors:0 dropped:0 overruns:0 carrier:0 | |||||||
collisions:0 txqueuelen:1000 | ||||||||
Changed: | ||||||||
< < | RX bytes:262985425 (250.8 MiB) TX bytes:51794928 (49.3 MiB) Interrupt:28 Memory:fbbe0000-fbc00000 | |||||||
> > | RX bytes:9542293 (9.1 MiB) TX bytes:9416614 (8.9 MiB) Interrupt:92 | |||||||
Changed: | ||||||||
< < | eth1 Link encap:Ethernet HWaddr 00:25:90:4A:A9:09 inet addr:131.154.100.146 Bcast:131.154.100.255 Mask:255.255.255.0 inet6 addr: fe80::225:90ff:fe4a:a909/64 Scope:Link | |||||||
> > | eth1 Link encap:Ethernet HWaddr B4:B5:2F:5C:FE:71 inet addr:10.101.8.21 Bcast:10.101.9.255 Mask:255.255.254.0 inet6 addr: fe80::b6b5:2fff:fe5c:fe71/64 Scope:Link | |||||||
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 | ||||||||
Changed: | ||||||||
< < | RX packets:142407 errors:0 dropped:0 overruns:0 frame:0 TX packets:540 errors:0 dropped:0 overruns:0 carrier:0 | |||||||
> > | RX packets:2089 errors:0 dropped:0 overruns:0 frame:0 TX packets:2178 errors:0 dropped:0 overruns:0 carrier:0 | |||||||
collisions:0 txqueuelen:1000 | ||||||||
Changed: | ||||||||
< < | RX bytes:12482666 (11.9 MiB) TX bytes:49631 (48.4 KiB) Interrupt:29 Memory:fbce0000-fbd00000 | |||||||
> > | RX bytes:247902 (242.0 KiB) TX bytes:353338 (345.0 KiB) Interrupt:96 | |||||||
lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:16436 Metric:1 | ||||||||
Changed: | ||||||||
< < | RX packets:39919 errors:0 dropped:0 overruns:0 frame:0 TX packets:39919 errors:0 dropped:0 overruns:0 carrier:0 | |||||||
> > | RX packets:41853 errors:0 dropped:0 overruns:0 frame:0 TX packets:41853 errors:0 dropped:0 overruns:0 carrier:0 | |||||||
collisions:0 txqueuelen:0 | ||||||||
Changed: | ||||||||
< < | RX bytes:32028240 (30.5 MiB) TX bytes:32028240 (30.5 MiB) | |||||||
> > | RX bytes:2350159 (2.2 MiB) TX bytes:2350159 (2.2 MiB) | |||||||
Line: 106 to 87 | ||||||||
yum install openssh-clients system-config-lvm vim-enhanced xorg-x11-xauth ntp | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
# chkconfig ntpd on | ||||||||
Line: 133 to 114 | ||||||||
# chkconfig iptables off | ||||||||
Changed: | ||||||||
< < | ||||||||
> > |
| |||||||
GlusterFSIl sito ufficiale di GlusterFE è http://www.gluster.org/![]() ![]() | ||||||||
Line: 356 to 341 | ||||||||
# mount –a | ||||||||
Added: | ||||||||
> > | Riepilogo configurazione del filesystemI volumi di GlusterFS risulteranno essere i seguenti:[root@mcloud01 ~]# gluster volume info Volume Name: volume-nova Type: Distributed-Replicate Status: Started Number of Bricks: 2 x 2 = 4 Transport-type: tcp Bricks: Brick1: 192.168.200.21:/mnt/brick-nova Brick2: 192.168.200.22:/mnt/brick-nova Brick3: 192.168.200.23:/mnt/brick-nova Brick4: 192.168.200.24:/mnt/brick-nova Volume Name: volume-glance Type: Replicate Status: Started Number of Bricks: 3 Transport-type: tcp Bricks: Brick1: 192.168.200.22:/mnt/brick-glance Brick2: 192.168.200.23:/mnt/brick-glance Brick3: 192.168.200.24:/mnt/brick-glanceA questo punto avremo le seguenti configurazioni sui vari server. mcloud01[root@mcloud01 ~]# cat /etc/fstab # # /etc/fstab # Created by anaconda on Thu May 17 04:42:07 2012 # # Accessible filesystems, by reference, are maintained under '/dev/disk' # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info # /dev/mapper/nova--volumes-lv_root / ext4 defaults 1 1 UUID=81dfe44d-f37c-494c-8181-6fec7c785b66 /boot ext4 defaults 1 2 /dev/mapper/nova--volumes-lv_swap swap swap defaults 0 0 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts gid=5,mode=620 0 0 sysfs /sys sysfs defaults 0 0 proc /proc proc defaults 0 0 /dev/nova-volumes/lv_nova /mnt/brick-nova ext4 defaults 1 1 192.168.200.21:/volume-glance /var/lib/glance/images glusterfs defaults 1 1 [root@mcloud01 ~]# mount /dev/mapper/nova--volumes-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) tmpfs on /dev/shm type tmpfs (rw) /dev/sda1 on /boot type ext4 (rw) /dev/mapper/nova--volumes-lv_nova on /mnt/brick-nova type ext4 (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) 192.168.200.21:/volume-glance on /var/lib/glance/images type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072) [root@mcloud01 ~]# df -mh Filesystem Size Used Avail Use% Mounted on /dev/mapper/nova--volumes-lv_root 9.9G 1.4G 8.1G 15% / tmpfs 63G 0 63G 0% /dev/shm /dev/sda1 1008M 75M 883M 8% /boot /dev/mapper/nova--volumes-lv_nova 788G 197M 748G 1% /mnt/brick-nova 192.168.200.21:/volume-glance 296G 191M 281G 1% /var/lib/glance/images mcloud02[root@mcloud02 ~]# cat /etc/fstab # # /etc/fstab # Created by anaconda on Wed May 16 17:06:15 2012 # # Accessible filesystems, by reference, are maintained under '/dev/disk' # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info # /dev/mapper/nova--volumes-lv_root / ext4 defaults 1 1 UUID=7c003c6b-aa96-4075-9cda-6fba7cc4b710 /boot ext4 defaults 1 2 /dev/mapper/nova--volumes-lv_swap swap swap defaults 0 0 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts gid=5,mode=620 0 0 sysfs /sys sysfs defaults 0 0 proc /proc proc defaults 0 0 /dev/nova-volumes/lv_glance /mnt/brick-glance ext4 defaults 1 1 /dev/nova-volumes/lv_nova /mnt/brick-nova ext4 defaults 1 1 192.168.200.22:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1 [root@mcloud02 ~]# mount /dev/mapper/nova--volumes-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) tmpfs on /dev/shm type tmpfs (rw) /dev/sda1 on /boot type ext4 (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) /dev/mapper/nova--volumes-lv_glance on /mnt/brick-glance type ext4 (rw) /dev/mapper/nova--volumes-lv_nova on /mnt/brick-nova type ext4 (rw) 192.168.200.22:/volume-nova on /var/lib/nova/instances type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072) [root@mcloud02 ~]# df -mh Filesystem Size Used Avail Use% Mounted on /dev/mapper/nova--volumes-lv_root 9.9G 886M 8.5G 10% / tmpfs 63G 0 63G 0% /dev/shm /dev/sda1 1008M 75M 883M 8% /boot /dev/mapper/nova--volumes-lv_glance 296G 191M 281G 1% /mnt/brick-glance /dev/mapper/nova--volumes-lv_nova 788G 197M 748G 1% /mnt/brick-nova 192.168.200.22:/volume-nova 1.6T 393M 1.5T 1% /var/lib/nova/instances mcloud03[root@mcloud03 ~]# cat /etc/fstab # # /etc/fstab # Created by anaconda on Thu May 17 03:26:21 2012 # # Accessible filesystems, by reference, are maintained under '/dev/disk' # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info # /dev/mapper/nova--volumes-lv_root / ext4 defaults 1 1 UUID=cc735352-9441-48e3-bc4b-35399db82c27 /boot ext4 defaults 1 2 /dev/mapper/nova--volumes-lv_swap swap swap defaults 0 0 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts gid=5,mode=620 0 0 sysfs /sys sysfs defaults 0 0 proc /proc proc defaults 0 0 /dev/nova-volumes/lv_glance /mnt/brick-glance ext4 defaults 1 1 /dev/nova-volumes/lv_nova /mnt/brick-nova ext4 defaults 1 1 192.168.200.23:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1 [root@mcloud03 ~]# mount /dev/mapper/nova--volumes-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) tmpfs on /dev/shm type tmpfs (rw) /dev/sda1 on /boot type ext4 (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) /dev/mapper/nova--volumes-lv_glance on /mnt/brick-glance type ext4 (rw) /dev/mapper/nova--volumes-lv_nova on /mnt/brick-nova type ext4 (rw) 192.168.200.23:/volume-nova on /var/lib/nova/instances type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072) [root@mcloud03 ~]# df -mh Filesystem Size Used Avail Use% Mounted on /dev/mapper/nova--volumes-lv_root 9.9G 886M 8.5G 10% / tmpfs 63G 0 63G 0% /dev/shm /dev/sda1 1008M 75M 883M 8% /boot /dev/mapper/nova--volumes-lv_glance 296G 191M 281G 1% /mnt/brick-glance /dev/mapper/nova--volumes-lv_nova 788G 197M 748G 1% /mnt/brick-nova 192.168.200.23:/volume-nova 1.6T 393M 1.5T 1% /var/lib/nova/instances mcloud04[root@mcloud04 ~]# cat /etc/fstab # # /etc/fstab # Created by anaconda on Wed May 16 18:06:47 2012 # # Accessible filesystems, by reference, are maintained under '/dev/disk' # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info # /dev/mapper/nova--volumes-lv_root / ext4 defaults 1 1 UUID=893f9415-1029-42e2-acf7-1a0cd3ccff29 /boot ext4 defaults 1 2 /dev/mapper/nova--volumes-lv_swap swap swap defaults 0 0 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts gid=5,mode=620 0 0 sysfs /sys sysfs defaults 0 0 proc /proc proc defaults 0 0 /dev/nova-volumes/lv_glance /mnt/brick-glance ext4 defaults 1 1 /dev/nova-volumes/lv_nova /mnt/brick-nova ext4 defaults 1 1 192.168.200.24:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1 [root@mcloud04 ~]# mount /dev/mapper/nova--volumes-lv_root on / type ext4 (rw) proc on /proc type proc (rw) sysfs on /sys type sysfs (rw) devpts on /dev/pts type devpts (rw,gid=5,mode=620) tmpfs on /dev/shm type tmpfs (rw) /dev/sda1 on /boot type ext4 (rw) none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw) /dev/mapper/nova--volumes-lv_glance on /mnt/brick-glance type ext4 (rw) /dev/mapper/nova--volumes-lv_nova on /mnt/brick-nova type ext4 (rw) 192.168.200.24:/volume-nova on /var/lib/nova/instances type fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072) [root@mcloud04 ~]# df -mh Filesystem Size Used Avail Use% Mounted on /dev/mapper/nova--volumes-lv_root 9.9G 886M 8.5G 10% / tmpfs 63G 0 63G 0% /dev/shm /dev/sda1 1008M 75M 883M 8% /boot /dev/mapper/nova--volumes-lv_glance 296G 191M 281G 1% /mnt/brick-glance /dev/mapper/nova--volumes-lv_nova 788G 197M 748G 1% /mnt/brick-nova 192.168.200.24:/volume-nova 1.6T 393M 1.5T 1% /var/lib/nova/instances | |||||||
Installazione servizi di OpenStackOpenStack è una suite di servizi. Nell'ambito del progetto sono stati installati i servizi minimi essenziali al raggiungimento degli obiettivi del progetto stesso e provati alcuni altri servizi e scenari di interesse per prendere familiarità e capire le potenzialità di alcune componenti. Questi scenari verranno descritti nella sezione Use case della presente guida. | ||||||||
Line: 416 to 618 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Creazione di tenant, utente e ruolo per l'amministratore e del tenant per i servizi | |||||||
> > | Creazione di tenant, utente e ruolo per l'amministratore | |||||||
Per comodità in questa sezione si utilizzerà uno script che farà l'export di determinate variabili. Creare il file .keystonrc e modificarlo come segue:
export ADMIN_TOKEN= | ||||||||
Line: 528 to 729 | ||||||||
Dove <ADMIN_USER_ID> e <ADMIN_TENANT_ID> sono rispettivamente gli ID di user e tenant appena creati. $ADMIN_ROLE_ID è invece l'id del ruolo "admin" esportato nell'istruzione precedente. Nota bene: non viene visualizzato nulla se il comando ha successo. | ||||||||
Changed: | ||||||||
< < | ||||||||
> > | Creazione del tenant per i servizi | |||||||
Creazione del tenant "service":Questo tenant conterrà tutti gli utenti dei servizi che si desidera far conoscere al service catalog. | ||||||||
Line: 866 to 1067 | ||||||||
Dove <YOUR_GLANCEDB_PASSWORD> è la password scelta per l'utente "glance" del DB. | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
mysql> DROP USER ''@'localhost'; mysql> flush privileges; |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche Cloud | ||||||||
Changed: | ||||||||
< < | Ver. 0.1 - 2012-11-20 | |||||||
> > | Ver. 0.2 - 2012-11-20 | |||||||
| ||||||||
Line: 86 to 86 | ||||||||
RX bytes:32028240 (30.5 MiB) TX bytes:32028240 (30.5 MiB) | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
Operazioni preliminari effettuate su tutti i server
| |||||||
Changed: | ||||||||
< < | [root@clstr-09 ~]# ll /etc/yum.repos.d/ totale 36 -rw-r--r--. 1 root root 1926 26 giu 11:30 CentOS-Base.repo -rw-r--r--. 1 root root 637 26 giu 11:30 CentOS-Debuginfo.repo -rw-r--r--. 1 root root 626 26 giu 11:30 CentOS-Media.repo -rw-r--r--. 1 root root 2593 26 giu 11:30 CentOS-Vault.repo -rw-r--r--. 1 root root 145 16 nov 17:40 cnaf-local.repo -rw-r--r--. 1 root root 200 16 nov 17:40 egi-trustanchors.repo -rw-r--r--. 1 root root 957 9 mag 2012 epel.repo -rw-r--r--. 1 root root 1056 9 mag 2012 epel-testing.repo -rw-r--r--. 1 root root 1250 28 set 21:00 puppetlabs.repo | |||||||
> > | # cat /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.200.21 mcloud01.regionemarche.intra mcloud01 192.168.200.22 mcloud02.regionemarche.intra mcloud02 192.168.200.23 mcloud03.regionemarche.intra mcloud03 192.168.200.24 mcloud04.regionemarche.intra mcloud04 | |||||||
Changed: | ||||||||
< < | ||||||||
> > |
yum install openssh-clients system-config-lvm vim-enhanced xorg-x11-xauth ntp
# chkconfig ntpd on # service ntp restart
# rpm -ivh http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-7.noarch.rpm # yum clean all # yum update
# /etc/init.d/iptables stop # chkconfig iptables off | |||||||
GlusterFS | ||||||||
Added: | ||||||||
> > | Il sito ufficiale di GlusterFE è http://www.gluster.org/![]() ![]() | |||||||
Installazione pacchetti GlusterFSInstallare tramiteyum i pacchetti del server GestioneServiziGenerali.GlusterFS sui nodi che comporranno il filesystem distribuito | ||||||||
Line: 114 to 153 | ||||||||
# /etc/init.d/glusterd start | ||||||||
Changed: | ||||||||
< < | Permettere che il servizio glusterd venga avviato di default al riavvio del server | |||||||
> > | Permettere che i servizi glusterd e glusterfsd vengano avviati di default al riavvio dei server | |||||||
# chkconfig glusterd on | ||||||||
Added: | ||||||||
> > | # chkconfig glusterfsd on | |||||||
| ||||||||
Line: 201 to 242 | ||||||||
Nota bene:
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
Changed: | ||||||||
< < | # lvcreate -L 1000G -n lv_nova | |||||||
> > | # lvcreate -L 800G -n lv_nova | |||||||
| ||||||||
Line: 303 to 344 | ||||||||
Sui server che ospiteranno il servizio NOVA (Compute) montare il volume creato. | ||||||||
Changed: | ||||||||
< < | Editare il file /etc/fstab (se necessario creare la directory /var/lib/nova/instances ): | |||||||
> > | Editare il file /etc/fstab (se necessario creare la directory con il comando mkdir -p /var/lib/nova/instances ): | |||||||
Changed: | ||||||||
< < | hostname1.domain:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1 | |||||||
> > | ||||||||
Montare il volume condiviso: | ||||||||
Line: 314 to 355 | ||||||||
# mount –a | ||||||||
Added: | ||||||||
> > |
Installazione servizi di OpenStackOpenStack è una suite di servizi. Nell'ambito del progetto sono stati installati i servizi minimi essenziali al raggiungimento degli obiettivi del progetto stesso e provati alcuni altri servizi e scenari di interesse per prendere familiarità e capire le potenzialità di alcune componenti. Questi scenari verranno descritti nella sezione Use case della presente guida. La release di OpenStack al momento disponibile nel repository EPEL è la Folstom (code 2012.2) rilasciata nell'Ottobre 2012. Le seguenti istruzioni sono da considerarsi come un'aggiunta e una guida passo passo all'installazione e configurazione dei servizi partendo dalla documentazione ufficiale di Openstack disponibile in http://docs.openstack.org/folsom/openstack-compute/install/yum/content/![]() ![]() | |||||||
KeystoneInstallazione KeystoneServer designato per l'installazione: hostname1.domain. |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.1 - 2012-11-20
| ||||||||
Line: 961 to 961 | ||||||||
# chkconfig qpidd on | ||||||||
Changed: | ||||||||
< < | ||||||||
> > | Configurazione dei servizi di Nova:
Aggiungere nova tra gli utenti sudoers:
Installare e impostare l'avvio automatico dei servizi legati a ISCSI (sul Cloud Controller)
| |||||||
| ||||||||
Line: 1066 to 1120 | ||||||||
qpid_hostname = clstr-09.cnaf.infn.it rpc_backend = nova.rpc.impl_qpid | ||||||||
Changed: | ||||||||
< < | # GLANCE | |||||||
> > | # glance | |||||||
image_service=nova.image.glance.GlanceImageService glance_api_servers=clstr-09.cnaf.infn.it:9292 cache_images=true | ||||||||
Line: 1084 to 1136 | ||||||||
quota_instances=20 max_cores=24 | ||||||||
Added: | ||||||||
> > | # volumes volume_group = nova-volumes iscsi_helper = tgtadm | |||||||
Changed: | ||||||||
< < | # volumes_dir = /etc/nova/volumes # iscsi_helper = tgtadm # rpc_backend = nova.openstack.common.rpc.impl_qpid | |||||||
> > | ### default configurations | |||||||
Added: | ||||||||
> > | # volume_name_template = volume-%08x # volumes_dir = /etc/nova/volumes | |||||||
# [keystone_authtoken] # admin_tenant_name = %SERVICE_TENANT_NAME% # admin_user = %SERVICE_USER% | ||||||||
Line: 1131 to 1185 | ||||||||
Dove:
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
# for s in `ls /etc/init.d/openstack-nova-*`; do $s stop ; done | ||||||||
Line: 1166 to 1219 | ||||||||
nova-network clstr-12.cnaf.infn.it nova enabled ![]() | ||||||||
Changed: | ||||||||
< < | Configurazione servizio | |||||||
> > | Configurazione del servizio | |||||||
NB: SU TUTTI I SERVER
| ||||||||
Line: 1185 to 1238 | ||||||||
ip link set eth1 promisc on | ||||||||
Changed: | ||||||||
< < | Da un server:
| |||||||
> > | NB: DA UN QUALSIASI SERVER UNA VOLTA SOLA
| |||||||
# nova-manage network list | ||||||||
Line: 1237 to 1290 | ||||||||
# nova secgroup-add-rule default tcp 443 443 0.0.0.0/0 | ||||||||
Added: | ||||||||
> > |
Installare e impostare l'avvio automatico dei servizi legati a ISCSI (su ogni Compute Node)
| |||||||
Dashboard | ||||||||
Line: 1296 to 1387 | ||||||||
Utilizzo della DashboardPer verificare il funzionamento della Dashboard, andare su http://clstr-09.cnaf.infn.it/dashboard![]() adminUser e relativa password. | ||||||||
Deleted: | ||||||||
< < |
TODO Installare e impostare l'avvio automatico dei servizi legati a ISCSI
| |||||||
-- MatteoManzali - 2012-11-19 |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche CloudVer. 0.1 - 2012-11-20
| ||||||||
Line: 368 to 368 | ||||||||
Creazione di tenant, utente e ruolo per l'amministratore e del tenant per i servizi | ||||||||
Changed: | ||||||||
< < | Per comodità in questa sezione si utilizzeranno delle variabili d'ambiente settate come segue: | |||||||
> > |
Per comodità in questa sezione si utilizzerà uno script che farà l'export di determinate variabili. Creare il file .keystonrc e modificarlo come segue: | |||||||
Changed: | ||||||||
< < | # export ADMIN_TOKEN= | |||||||
> > | export ADMIN_TOKEN=
export OS_USERNAME= | |||||||
Changed: | ||||||||
< < | Dove <ADMIN_TOKEN_VALUE> è il valore del parametro admin_token contenuto nel file /etc/keystone/keystone.conf . | |||||||
> > |
Dove:
# source .keystonercN.B. I campi vuoti dello script verranno riempiti man mano che verranno lanciate le seguenti istruzioni, si imposteranno le password e si otterranno gli ID. Ad ogni ID ottenuto, modificare il file .keystonerc e rifarne il source . | |||||||
Creazione del tenant "adminTenant"Definizione di tenant: Un tenant è un contenitore usato per raggruppare risorse o utenti. | ||||||||
Line: 398 to 432 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | export ADMIN_TENANT_ID=db2cf825309c49989595fc2ff915dc7e | |||||||
Creazione dell'utente "adminUser" | ||||||||
Line: 434 to 467 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | # export ADMIN_ROLE_ID=2f196d11ff954c67befc3f190195f47c | |||||||
Assegnazione del ruolo "admin" all'utente "AdminUser" | ||||||||
Line: 465 to 496 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | # export SERVICE_TENANT_ID=73016aa2c9ca4aeba3736cf44cc8433b | |||||||
| ||||||||
Line: 489 to 519 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | export GLANCE_USER_ID=90ee5ac051eb4d1eaa543243987968a6 | |||||||
Dove <GLANCE_PASSWORD> è la password che si desidera associare all'utente del servizio Glance. | ||||||||
Line: 520 to 549 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | export NOVA_USER_ID=9b2d55e2f8164be5a9805a39588f4659 | |||||||
Dove <NOVA_PASSWORD> è la password che si desidera associare all'utente del servizio Nova. | ||||||||
Line: 559 to 587 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | export KEYSTONE_SERVICE_ID=c2b7f0514dde412ea6c1fccac6437bb7 export KEYSTONE5000=http://openstack-01.cnaf.infn.it:5000/v2.0 | |||||||
| ||||||||
Line: 572 to 598 | ||||||||
+-------------+----------------------------------------------+
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Line: 597 to 623 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | export NOVA_COMPUTE_SERVICE_ID=5bfe94c4ff80410ab60b635cc99e2476 | |||||||
| ||||||||
Line: 610 to 635 | ||||||||
+-------------+--------------------------------------------------------+
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < | Dove <CLOUD_CONTROLLER_HOSTNAME> è l'hostname del Cloud Controller (Nova). Nel nostro caso è "openstack-01.cnaf.infn.it". | |||||||
> > | Dove <CLOUD_CONTROLLER_HOSTNAME> è l'hostname del Cloud Controller (Nova). Nel nostro caso è "clstr-09.cnaf.infn.it". | |||||||
Definizione del servizio volume (Volume)Il servizio volume richiede un endpoint specifico per ogni tenant. | ||||||||
Line: 636 to 661 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | export NOVA_VOLUME_SERVICE_ID=f99ba2241e014295aa3ecfcda6633100 | |||||||
| ||||||||
Line: 649 to 673 | ||||||||
+-------------+--------------------------------------------------------+
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < | Dove <CLOUD_CONTROLLER_HOSTNAME> è l'hostname del Cloud Controller (Nova). Nel nostro caso è "openstack-01.cnaf.infn.it". | |||||||
> > | Dove <CLOUD_CONTROLLER_HOSTNAME> è l'hostname del Cloud Controller (Nova). Nel nostro caso è "clstr-09.cnaf.infn.it". | |||||||
Definizione del servizio image (Glance)
| ||||||||
Line: 673 to 697 | ||||||||
| ||||||||
Deleted: | ||||||||
< < | export GLANCE_IMAGE_SERVICE_ID=6c02494e7a534c91a7a01228a4093e63 | |||||||
| ||||||||
Line: 686 to 709 | ||||||||
+-------------+------------------------------------------+
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < | Dove <GLANCE_SERVER_HOSTNAME> è l'hostname del server sui è installato il servizio Glance. Nel nostro caso è "openstack-01.cnaf.infn.it". | |||||||
> > | Dove <GLANCE_SERVER_HOSTNAME> è l'hostname del server sui è installato il servizio Glance. Nel nostro caso è "clstr-09.cnaf.infn.it". | |||||||
Troubleshooting Keystone | ||||||||
Line: 1021 to 1044 | ||||||||
dhcpbridge = /usr/bin/nova-dhcpbridge dhcpbridge_flagfile = /etc/nova/nova.conf firewall_driver = nova.virt.libvirt.firewall.IptablesFirewallDriver | ||||||||
Changed: | ||||||||
< < | my_ip = 131.154.101.140 | |||||||
> > | my_ip = THIS_SERVER_IP | |||||||
# fixed_range is eth1 network fixed_range = 192.168.122.0/24 public_interface = eth0 | ||||||||
Line: 1035 to 1058 | ||||||||
# no vnc console vnc_enabled = True vncserver_listen = 0.0.0.0 | ||||||||
Changed: | ||||||||
< < | vncserver_proxyclient_address = 131.154.101.140 | |||||||
> > | vncserver_proxyclient_address = THIS_SERVER_IP | |||||||
novncproxy_base_url=http://clstr-09.cnaf.infn.it:6080/vnc_auto.html xvpvncproxy_base_url=http://clstr-09.cnaf.infn.it:6081/console | ||||||||
Line: 1081 to 1104 | ||||||||
Dove: | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
| ||||||||
Line: 1103 to 1126 | ||||||||
auth_uri = http://clstr-09.cnaf.infn.it:5000/![]() | ||||||||
Changed: | ||||||||
< < | admin_password = PASSWORD_DB_NOVA | |||||||
> > | admin_password = NOVA_PASSWORD | |||||||
Dove: | ||||||||
Deleted: | ||||||||
< < |
| |||||||
| ||||||||
Line: 1131 to 1153 | ||||||||
# nova-manage service list Binary Host Zone Status State Updated_At | ||||||||
Changed: | ||||||||
< < | nova-cert openstack-01.cnaf.infn.it nova enabled ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | |||||||
> > | nova-cert clstr-09.cnaf.infn.it nova enabled ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | |||||||
Configurazione servizio | ||||||||
Line: 1272 to 1294 | ||||||||
Utilizzo della Dashboard | ||||||||
Changed: | ||||||||
< < | Per verificare il funzionamento della Dashboard, andare su http://openstack-01.cnaf.infn.it/dashboard![]() adminUser e relativa password. | |||||||
> > | Per verificare il funzionamento della Dashboard, andare su http://clstr-09.cnaf.infn.it/dashboard![]() adminUser e relativa password. | |||||||
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche Cloud | ||||||||
Added: | ||||||||
> > | Ver. 0.1 - 2012-11-20 | |||||||
|
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione dell'infrastruttura di cloud per il progetto Marche Cloud
| ||||||||
Line: 953 to 953 | ||||||||
"Virtualization Platform" "Virtualization Tools" # yum install openstack-utils memcached qpid-cpp-server | ||||||||
Changed: | ||||||||
< < | openstack-compute openstack-network mysql dnsmasq-utils | |||||||
> > | openstack-nova-compute openstack-nova-network mysql dnsmasq-utils | |||||||
python-keystone-auth-token | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > |
| |||||||
Configurazione del servizio Compute |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Changed: | ||||||||
< < | Guida di installazione (in unica pagina) dell'infrastruttura di cloud per il progetto Marche Cloud | |||||||
> > | Guida di installazione dell'infrastruttura di cloud per il progetto Marche Cloud | |||||||
| ||||||||
Line: 246 to 246 | ||||||||
Creare il volume condiviso tramite il seguente comando: | ||||||||
Changed: | ||||||||
< < | # gluster volume create volume-glance replica 3 transport tcp hostname2.domain:/mnt/brick-glance hostname3.domain:/mnt/brick-glance hostname4.domain:/mnt/brick-glance | |||||||
> > | # gluster volume create volume-glance replica 3 transport tcp \ hostname2.domain:/mnt/brick-glance hostname3.domain:/mnt/brick-glance hostname4.domain:/mnt/brick-glance | |||||||
Far partire il vomune appena creato: | ||||||||
Line: 285 to 288 | ||||||||
Creare il volume condiviso tramite il seguente comando: | ||||||||
Changed: | ||||||||
< < | # gluster volume create volume-nova replica 2 transport tcp hostname1.domain:/mnt/brick-nova hostname2.domain:/mnt/brick-nova hostname3.domain:/mnt/brick-nova hostname4.domain:/mnt/brick-nova | |||||||
> > | # gluster volume create volume-nova replica 2 transport tcp hostname1.domain:/mnt/brick-nova hostname2.domain:/mnt/brick-nova hostname3.domain:/mnt/brick-nova hostname4.domain:/mnt/brick-nova | |||||||
Far partire il vomune appena creato: | ||||||||
Line: 344 to 351 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # openstack-config --set /etc/keystone/keystone.conf DEFAULT admin_token $(openssl rand -hex 10) | |||||||
> > | # openstack-config --set /etc/keystone/keystone.conf DEFAULT admin_token $(openssl rand -hex 10) | |||||||
| ||||||||
Line: 376 to 384 | ||||||||
| ||||||||
Changed: | ||||||||
< < | keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT tenant-create --name adminTenant --description "Admin Tenant" --enabled true | |||||||
> > | keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT tenant-create --name adminTenant --description "Admin Tenant" --enabled true | |||||||
+-------------+----------------------------------+
| ||||||||
Line: 393 to 404 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-create --tenant_id $ADMIN_TENANT_ID --name $OS_USERNAME --pass $OS_PASSWORD --enabled true | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-create --tenant_id $ADMIN_TENANT_ID --name $OS_USERNAME --pass $OS_PASSWORD --enabled true | |||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+
| ||||||||
Line: 427 to 440 | ||||||||
Assegnazione del ruolo "admin" all'utente "AdminUser"
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-role-add --user_id $ADMIN_USER_ID --tenant_id $ADMIN_TENANT_ID --role_id $ADMIN_ROLE_ID | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-role-add --user_id $ADMIN_USER_ID --tenant_id $ADMIN_TENANT_ID \ --role_id $ADMIN_ROLE_ID | |||||||
Dove <ADMIN_USER_ID> e <ADMIN_TENANT_ID> sono rispettivamente gli ID di user e tenant appena creati. $ADMIN_ROLE_ID è invece l'id del ruolo "admin" esportato nell'istruzione precedente. Nota bene: non viene visualizzato nulla se il comando ha successo. | ||||||||
Line: 438 to 453 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT tenant-create --name service --description "Service Tenant" --enabled true | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT tenant-create --name service --description "Service Tenant" --enabled true | |||||||
+-------------+----------------------------------+
| ||||||||
Line: 458 to 474 | ||||||||
Creazione ed inserimento dell'utente associato a Glance
| ||||||||
Changed: | ||||||||
< < | keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-create --tenant_id $SERVICE_TENANT_ID --name glance --pass | |||||||
> > | keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-create --tenant_id $SERVICE_TENANT_ID --name glance --pass | |||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+
| ||||||||
Line: 477 to 495 | ||||||||
| ||||||||
Changed: | ||||||||
< < | keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-role-add --user_id $GLANCE_USER_ID --tenant_id $SERVICE_TENANT_ID --role_id $ADMIN_ROLE_ID | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-role-add --user_id $GLANCE_USER_ID --tenant_id $SERVICE_TENANT_ID --role_id $ADMIN_ROLE_ID | |||||||
Nota bene: non viene visualizzato nulla se il comando ha successo. | ||||||||
Line: 485 to 505 | ||||||||
Creazione ed inserimento dell'utente associato a Nova
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-create --tenant_id $SERVICE_TENANT_ID --name nova --pass | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-create --tenant_id $SERVICE_TENANT_ID --name nova --pass | |||||||
+----------+-------------------------------------------------------------------------------------------------------------------------+
| ||||||||
Line: 505 to 527 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-role-add --user_id $NOVA_USER_ID --tenant_id $SERVICE_TENANT_ID --role_id $ADMIN_ROLE_ID | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-role-add --user_id $NOVA_USER_ID --tenant_id $SERVICE_TENANT_ID --role_id $ADMIN_ROLE_ID | |||||||
Nota bene: non viene visualizzato nulla se il comando ha successo. | ||||||||
Line: 523 to 547 | ||||||||
Definizione del servizio identity (Keystone)
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT service-create --name=keystone --type=identity --description="Keystone Identity Service" | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT service-create --name=keystone --type=identity --description="Keystone Identity Service" | |||||||
+-------------+----------------------------------+
| ||||||||
Line: 539 to 564 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT endpoint-create --region RegionOne --service_id=$KEYSTONE_SERVICE_ID --publicurl=$KEYSTONE5000 --internalurl=$KEYSTONE5000 --adminurl=$ENDPOINT | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT endpoint-create --region RegionOne --service_id=$KEYSTONE_SERVICE_ID --publicurl=$KEYSTONE5000 --internalurl=$KEYSTONE5000 --adminurl=$ENDPOINT | |||||||
+-------------+----------------------------------------------+
| ||||||||
Line: 557 to 585 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT service-create --name=nova --type=compute --description="Nova Compute Service" | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT service-create --name=nova --type=compute --description="Nova Compute Service" | |||||||
+-------------+----------------------------------+
| ||||||||
Line: 572 to 601 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT endpoint-create --region RegionOne --service_id=$NOVA_SERVICE_ID --publicurl='http:// | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT endpoint-create \
--region RegionOne --service_id=$NOVA_SERVICE_ID --publicurl='http:// | |||||||
+-------------+--------------------------------------------------------+
| ||||||||
Line: 591 to 624 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT service-create --name=volume --type=volume --description="Nova Volume Service" | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT service-create --name=volume --type=volume --description="Nova Volume Service" | |||||||
+-------------+----------------------------------+
| ||||||||
Line: 606 to 640 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT endpoint-create --region RegionOne --service_id=$NOVA_VOLUME_SERVICE_ID --publicurl='http:// | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT endpoint-create --region RegionOne --service_id=$NOVA_VOLUME_SERVICE_ID --publicurl='http:// | |||||||
+-------------+--------------------------------------------------------+
| ||||||||
Line: 623 to 661 | ||||||||
Definizione del servizio image (Glance)
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT service-create --name=glance --type=image --description="Glance Image Service" | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT service-create --name=glance --type=image --description="Glance Image Service" | |||||||
+-------------+----------------------------------+
| ||||||||
Line: 638 to 677 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT endpoint-create --region RegionOne --service_id=$GLANCE_IMAGE_SERVICE_ID --publicurl=http:// | |||||||
> > | # keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT endpoint-create --region RegionOne --service_id=$GLANCE_IMAGE_SERVICE_ID --publicurl=http:// | |||||||
+-------------+------------------------------------------+
| ||||||||
Line: 844 to 887 | ||||||||
# glance index | ||||||||
Changed: | ||||||||
< < | # glance add name=cirros-0.3.0-x86_64 disk_format=qcow2 container_format=bare < /stackimages/cirros-0.3.0-x86_64-disk.img | |||||||
> > | # glance add name=cirros-0.3.0-x86_64 disk_format=qcow2 \ container_format=bare < /stackimages/cirros-0.3.0-x86_64-disk.img | |||||||
Uploading image 'cirros-0.3.0-x86_64' ================================================================================================================================================================================[100%] 23.2M/s, ETA 0h 0m 0s Added new image with ID: a08912a4-3c73-4b17-9d96-bed2d1290d3d | ||||||||
Line: 902 to 946 | ||||||||
Configurazione dell'Hypervisor (KVM)
| ||||||||
Changed: | ||||||||
< < | # yum install qemu-kvm qemu-img virt-manager libvirt libvirt-python python-virtinst libvirt-client bridge-utils libguestfs-tools # yum groupinstall Virtualization "Virtualization Client" "Virtualization Platform" "Virtualization Tools" # yum install openstack-utils memcached qpid-cpp-server openstack-compute openstack-network mysql dnsmasq-utils python-keystone-auth-token | |||||||
> > | # yum install qemu-kvm qemu-img virt-manager libvirt libvirt-python python-virtinst libvirt-client bridge-utils libguestfs-tools # yum groupinstall Virtualization "Virtualization Client" "Virtualization Platform" "Virtualization Tools" | |||||||
Added: | ||||||||
> > | # yum install openstack-utils memcached qpid-cpp-server openstack-compute openstack-network mysql dnsmasq-utils python-keystone-auth-token | |||||||
| ||||||||
Line: 957 to 1006 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # LOG/STATE | |||||||
> > | ||||||||
logdir = /var/log/nova | ||||||||
Deleted: | ||||||||
< < | verbose = True | |||||||
state_path = /var/lib/nova lock_path = /var/lib/nova/tmp | ||||||||
Added: | ||||||||
> > | verbose = False | |||||||
Changed: | ||||||||
< < | # AUTHENTICATION
auth_strategy = keystone
# SCHEDULER
#compute_scheduler_driver=nova.scheduler.filter_scheduler.FilterScheduler
# VOLUMES
volume_group = | |||||||
> > | # kvm compute_driver = libvirt.LibvirtDriver | |||||||
libvirt_type = kvm | ||||||||
Changed: | ||||||||
< < | connection_type = libvirt #instance_name_template = instance-%08x #api_paste_config=/etc/nova/api-paste.ini #allow_resize_to_same_host=True # APIS #osapi_compute_extension=nova.api.openstack.compute.contrib.standard_extensions #ec2_dmz_host=192.168.206.130 #s3_host=192.168.206.130 | |||||||
> > | libvirt_nonblocking = True libvirt_inject_partition = -1 libvirt_xml_template = /usr/share/nova/libvirt.xml.template | |||||||
Changed: | ||||||||
< < | # GLANCE image_service=nova.image.glance.GlanceImageService glance_api_servers=192.168.206.130:9292 | |||||||
> > | # sql sql_connection = mysql://nova:PASSWORD_UTENTE_DB_NOVA@clstr-09.cnaf.infn.it/nova | |||||||
Changed: | ||||||||
< < | # NETWORK | |||||||
> > | # authentication auth_strategy = keystone # network manager | |||||||
network_manager = nova.network.manager.FlatDHCPManager | ||||||||
Changed: | ||||||||
< < | force_dhcp_release = True | |||||||
> > | force_dhcp_release = False dhcp_lease_time = 120 dhcpbridge = /usr/bin/nova-dhcpbridge | |||||||
dhcpbridge_flagfile = /etc/nova/nova.conf firewall_driver = nova.virt.libvirt.firewall.IptablesFirewallDriver | ||||||||
Changed: | ||||||||
< < | # Change my_ip to match each host
my_ip = | |||||||
> > | my_ip = 131.154.101.140 # fixed_range is eth1 network fixed_range = 192.168.122.0/24 | |||||||
public_interface = eth0 | ||||||||
Deleted: | ||||||||
< < | #vlan_interface = eth0 | |||||||
flat_network_bridge = virbr0 | ||||||||
Changed: | ||||||||
< < | flat_interface = eth0 fixed_range = 192.168.122.0/24 | |||||||
> > | flat_interface = eth1 multi_host = True auto_assign_floating_ip = False injected_network_template = /usr/share/nova/interfaces.template allow_same_net_traffic=true | |||||||
Changed: | ||||||||
< < | # NOVNC CONSOLE vnc_enabled = true | |||||||
> > | # no vnc console vnc_enabled = True | |||||||
vncserver_listen = 0.0.0.0 | ||||||||
Changed: | ||||||||
< < | vncserver_proxyclient_address = 131.154.100.111 novncproxy_base_url=http://openstack-01.cnaf.infn.it:6080/vnc_auto.html xvpvncproxy_base_url=http://openstack-01.cnaf.infn.it:6081/console | |||||||
> > | vncserver_proxyclient_address = 131.154.101.140 novncproxy_base_url=http://clstr-09.cnaf.infn.it:6080/vnc_auto.html xvpvncproxy_base_url=http://clstr-09.cnaf.infn.it:6081/console | |||||||
Changed: | ||||||||
< < | # Qpid qpid_hostname = openstack-01.cnaf.infn.it | |||||||
> > | # qpid qpid_hostname = clstr-09.cnaf.infn.it | |||||||
rpc_backend = nova.rpc.impl_qpid | ||||||||
Changed: | ||||||||
< < | # OTHER dhcpbridge = /usr/bin/nova-dhcpbridge injected_network_template = /usr/share/nova/interfaces.template libvirt_xml_template = /usr/share/nova/libvirt.xml.template libvirt_nonblocking = True libvirt_inject_partition = -1 | |||||||
> > | # GLANCE image_service=nova.image.glance.GlanceImageService glance_api_servers=clstr-09.cnaf.infn.it:9292 cache_images=true # other | |||||||
vpn_client_template = /usr/share/nova/client.ovpn.template credentials_template = /usr/share/nova/novarc.template | ||||||||
Changed: | ||||||||
< < | root_helper = sudo nova-rootwrap | |||||||
> > | rootwrap_config = /etc/nova/rootwrap.conf | |||||||
remove_unused_base_images = True | ||||||||
Added: | ||||||||
> > | # quota quota_cores=20 quota_instances=20 max_cores=24 # volumes_dir = /etc/nova/volumes # iscsi_helper = tgtadm # rpc_backend = nova.openstack.common.rpc.impl_qpid # [keystone_authtoken] # admin_tenant_name = %SERVICE_TENANT_NAME% # admin_user = %SERVICE_USER% # admin_password = %SERVICE_PASSWORD% # auth_host = 127.0.0.1 # auth_port = 35357 # auth_protocol = http # signing_dirname = /tmp/keystone-signing-nova | |||||||
Dove: | ||||||||
Line: 1042 to 1104 | ||||||||
[filter:authtoken] paste.filter_factory = keystone.middleware.auth_token:filter_factory | ||||||||
Added: | ||||||||
> > | ||||||||
service_protocol = http | ||||||||
Changed: | ||||||||
< < | service_host = | |||||||
> > | service_host = clstr-09.cnaf.infn.it | |||||||
service_port = 5000 | ||||||||
Changed: | ||||||||
< < | auth_host = | |||||||
> > | auth_host = clstr-09.cnaf.infn.it | |||||||
auth_port = 35357 auth_protocol = http | ||||||||
Changed: | ||||||||
< < | auth_uri = http://![]() | |||||||
> > | auth_uri = http://clstr-09.cnaf.infn.it:5000/![]() | |||||||
admin_tenant_name = service admin_user = nova | ||||||||
Changed: | ||||||||
< < | admin_password = | |||||||
> > | admin_password = PASSWORD_DB_NOVA | |||||||
Dove:
| ||||||||
Line: 1061 to 1125 | ||||||||
| ||||||||
Changed: | ||||||||
< < | # for svc in api objectstore compute network volume scheduler cert; do echo openstack-nova-$svc; service openstack-nova-$svc stop ; chkconfig openstack-nova-$svc on; done | |||||||
> > | # for s in `ls /etc/init.d/openstack-nova-*`; do $s stop ; done # chkconfig openstack-nova-compute on # chkconfig openstack-nova-network on | |||||||
# nova-manage db sync | ||||||||
Changed: | ||||||||
< < | # for svc in api objectstore compute network volume scheduler cert; do echo openstack-nova-$svc; /etc/init.d/openstack-nova-$svc start ; done | |||||||
> > | # /etc/init.d/openstack-nova-compute start # /etc/init.d/openstack-nova-network start | |||||||
| ||||||||
Line: 1108 to 1179 | ||||||||
# nova-manage network list | ||||||||
Changed: | ||||||||
< < | # nova-manage network create private --multi_host=T --fixed_range_v4=192.168.122.0/24 --bridge_interface=virbr0 --num_networks=1 --network_size=256 | |||||||
> > | # nova-manage network create private --multi_host=T --fixed_range_v4=192.168.122.0/24 --bridge_interface=virbr0 --num_networks=1 --network_size=256 | |||||||
# nova-manage network list id IPv4 IPv6 start address DNS1 DNS2 VlanID project uuid |
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione (in unica pagina) dell'infrastruttura di cloud per il progetto Marche Cloud
| ||||||||
Line: 1158 to 1155 | ||||||||
| ||||||||
Added: | ||||||||
> > | Dashboard | |||||||
Added: | ||||||||
> > | Installazione della DashboardNei passi successivi si assume di avere gia' installati e configurati Identity Service (Keystone) e il compute service (Nova). | |||||||
Added: | ||||||||
> > |
| |||||||
Added: | ||||||||
> > | Configurazione della Dashboard
Utilizzo della DashboardPer verificare il funzionamento della Dashboard, andare su http://openstack-01.cnaf.infn.it/dashboard![]() adminUser e relativa password. | |||||||
Added: | ||||||||
> > |
| |||||||
TODO Installare e impostare l'avvio automatico dei servizi legati a ISCSI
|
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione (in unica pagina) dell'infrastruttura di cloud per il progetto Marche Cloud
| ||||||||
Line: 1087 to 1087 | ||||||||
nova-network openstack-03.cnaf.infn.it nova enabled ![]() | ||||||||
Changed: | ||||||||
< < |
| |||||||
> > | Configurazione servizio
NB: SU TUTTI I SERVER | |||||||
Added: | ||||||||
> > | # ifconfig virbr0
virbr0 Link encap:Ethernet HWaddr 52:54:00:83:66:9B
inet addr:192.168.122.1 Bcast:192.168.122.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:67 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:0 (0.0 b) TX bytes:5681 (5.5 KiB)
ip link set eth1 promisc onDa un server:
# nova-manage network list | |||||||
# nova-manage network create private --multi_host=T --fixed_range_v4=192.168.122.0/24 --bridge_interface=virbr0 --num_networks=1 --network_size=256 # nova-manage network list id IPv4 IPv6 start address DNS1 DNS2 VlanID project uuid | ||||||||
Changed: | ||||||||
< < | 1 192.168.122.0/24 None 192.168.122.2 8.8.4.4 None None None 052f9b4b-e6d7-4ad9-a3f1-929e80008372 | |||||||
> > | 1 192.168.122.0/24 None 192.168.122.2 8.8.4.4 None None None 03f392b7-16bd-4ea0-a1c0-897fdebd1f0c | |||||||
Changed: | ||||||||
< < | Gruppi di sicurezza: abilitazione di SSH e ICMPIl servizio Compute usa i concetti di gruppi di sicurezza per controllare che i protocolli di rete (TCP, UDP, ICMP), le porte e gli indirizzi IP permettano di accedere alle istanze. | |||||||
> > |
| |||||||
| ||||||||
Line: 1131 to 1150 | ||||||||
+-------------+-----------+---------+-----------+--------------+ | ||||||||
Added: | ||||||||
> > |
# nova secgroup-add-rule default tcp 80 80 0.0.0.0/0 # nova secgroup-add-rule default tcp 443 443 0.0.0.0/0 | |||||||
Changed: | ||||||||
< < | Installare e impostare l'avvio automatico dei servizi legati a ISCSI | |||||||
> > |
TODO Installare e impostare l'avvio automatico dei servizi legati a ISCSI | |||||||
|
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione (in unica pagina) dell'infrastruttura di cloud per il progetto Marche Cloud
| ||||||||
Line: 904 to 904 | ||||||||
# yum install qemu-kvm qemu-img virt-manager libvirt libvirt-python python-virtinst libvirt-client bridge-utils libguestfs-tools # yum groupinstall Virtualization "Virtualization Client" "Virtualization Platform" "Virtualization Tools" | ||||||||
Changed: | ||||||||
< < | # yum install openstack-utils memcached qpid-cpp-server openstack-nova dnsmasq-utils python-keystone-auth-token | |||||||
> > | # yum install openstack-utils memcached qpid-cpp-server openstack-compute openstack-network mysql dnsmasq-utils python-keystone-auth-token | |||||||
Line: 1 to 1 | ||||||||
---|---|---|---|---|---|---|---|---|
Guida di installazione (in unica pagina) dell'infrastruttura di cloud per il progetto Marche Cloud
| ||||||||
Changed: | ||||||||
< < |
Tabella Hostnames / IPs dei server che compongono l'infrastruttura pilota | |||||||
> > | TestbedTabella Hostnames / IPs dei server che compongono l'infrastruttura pilota | |||||||
| ||||||||
Line: 13 to 13 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Controlli preliminari dell'ambiente software da effettuare su ogni server | |||||||
> > | Controlli preliminari dell'ambiente software da effettuare su ogni server | |||||||
| ||||||||
Line: 101 to 101 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Installazione pacchetti GlusterFS | |||||||
> > | GlusterFSInstallazione pacchetti GlusterFS | |||||||
Installare tramite yum i pacchetti del server GestioneServiziGenerali.GlusterFS sui nodi che comporranno il filesystem distribuito
# yum install glusterfs-fuse glusterfs-server glusterfs-vim | ||||||||
Line: 118 to 119 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Creazione di un trusted storage pool | |||||||
> > | Creazione di un trusted storage pool | |||||||
Prima di configurare un volume GestioneServiziGenerali.GlusterFS è necessario creare un trusted storage pool, contenente i server che comporranno il volume. | ||||||||
Line: 153 to 154 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Creazione delle unità base di storage (Brick) | |||||||
> > | Creazione delle unità base di storage (Brick) | |||||||
In GestioneServiziGenerali.GlusterFS un Brick è l'unità base dello storage, rappresentata da una directory su un server del trusted storage pool. | ||||||||
Line: 231 to 232 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Creazione del volume condiviso | |||||||
> > | Creazione del volume condiviso | |||||||
I Brick vengono utlizzati per comporre il volume di storage condiviso sui nodi. La creazione del volume può essere effettuata su uno qualsiasi dei nodi che compongono il trusted storage pool. Ciascun Brick è identificato dalla combinazione del nome del server con la directory da esportare, nel seguente formato hostname1.domain:/mnt/mydir . | ||||||||
Line: 305 to 306 | ||||||||
# mount –a | ||||||||
Changed: | ||||||||
< < |
Installazione Keystone | |||||||
> > | KeystoneInstallazione Keystone | |||||||
Server designato per l'installazione: hostname1.domain.
| ||||||||
Line: 328 to 329 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Configurazione keystone | |||||||
> > | Configurazione keystone | |||||||
| ||||||||
Line: 357 to 358 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Creazione di tenant, utente e ruolo per l'amministratore e del tenant per i servizi | |||||||
> > | Creazione di tenant, utente e ruolo per l'amministratore e del tenant per i servizi | |||||||
Per comodità in questa sezione si utilizzeranno delle variabili d'ambiente settate come segue:
# export ADMIN_TOKEN=<ADMIN_TOKEN_VALUE> | ||||||||
Line: 455 to 452 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Creazione ed inserimento degli utenti associati ai servizi | |||||||
> > | Creazione ed inserimento degli utenti associati ai servizi | |||||||
Una volta creato il "Service Tenant", si andrà ad inserire al suo interno un utente per ogni servizio che si vuole aggiungere.
Creazione ed inserimento dell'utente associato a Glance | ||||||||
Line: 514 to 511 | ||||||||
Nota bene: non viene visualizzato nulla se il comando ha successo.
| ||||||||
Changed: | ||||||||
< < | Definizione dei servizi | |||||||
> > | Definizione dei servizi | |||||||
Keystone agisce anche come catalogo dei servizi per permettere alle altre componenti OpenStack di conoscere quali sono gli endpoint dei vari servizi OpenStack.
| ||||||||
Line: 656 to 653 | ||||||||
Dove <GLANCE_SERVER_HOSTNAME> è l'hostname del server sui è installato il servizio Glance. Nel nostro caso è "openstack-01.cnaf.infn.it".
| ||||||||
Changed: | ||||||||
< < | Troubleshooting | |||||||
> > | Troubleshooting Keystone | |||||||
| ||||||||
Line: 726 to 723 | ||||||||
Changed: | ||||||||
< < | Installazione Glance | |||||||
> > | GlanceInstallazione Glance | |||||||
Server designato per l'installazione: hostname1.domain.
| ||||||||
Line: 736 to 734 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Configurazione Glance | |||||||
> > | Configurazione Glance | |||||||
| ||||||||
Line: 833 to 831 | ||||||||
| ||||||||
Changed: | ||||||||
< < | Troubleshooting | |||||||
> > | Troubleshooting Glance | |||||||
| ||||||||
Line: 861 to 859 | ||||||||
| ||||||||
Added: | ||||||||
> > | Cloud ControllerConfigurare il DB MySQL sul Cloud Controller
Installare il Cloud Controller
NovaConfigurazione dell'Hypervisor (KVM)
Configurazione del servizio ComputeServizio libvirtd
# OPENSTACK LIVE MIGRATION listen_tls = 0 listen_tcp = 1 auth_tcp = "none"
LIBVIRTD_ARGS="--listen"
Servizio nova
Gruppi di sicurezza: abilitazione di SSH e ICMPIl servizio Compute usa i concetti di gruppi di sicurezza per controllare che i protocolli di rete (TCP, UDP, ICMP), le porte e gli indirizzi IP permettano di accedere alle istanze.
Installare e impostare l'avvio automatico dei servizi legati a ISCSI
| |||||||
-- MatteoManzali - 2012-11-19 |
Line: 1 to 1 | ||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Added: | ||||||||||||||||
> > | Guida di installazione (in unica pagina) dell'infrastruttura di cloud per il progetto Marche Cloud
Tabella Hostnames / IPs dei server che compongono l'infrastruttura pilota
Controlli preliminari dell'ambiente software da effettuare su ogni server
Installazione pacchetti GlusterFSInstallare tramiteyum i pacchetti del server GestioneServiziGenerali.GlusterFS sui nodi che comporranno il filesystem distribuito
# yum install glusterfs-fuse glusterfs-server glusterfs-vimFar partire il servizio glusterd appena installato
# /etc/init.d/glusterd startPermettere che il servizio glusterd venga avviato di default al riavvio del server
# chkconfig glusterd on Creazione di un trusted storage poolPrima di configurare un volume GestioneServiziGenerali.GlusterFS è necessario creare un trusted storage pool, contenente i server che comporranno il volume. Per permettere la condivisione del filesystem tra i nodi desiderati eseguire, su uno qualsiasi dei nodi, il comandogluster peer probe <HOSTNAME_NODE> per ognuno degli altri nodi.
Ad esempio in un pool di quattro nodi (con hostname rispettivamente hostname1.domain , hostname2.domain , hostname3.domain , hostname4.domain ) eseguire sull'host hostname1.domain :
# gluster peer probe hostname2.domain # gluster peer probe hostname3.domain # gluster peer probe hostname4.domainPer controllare che la creazione del pool sia andata a buon fine, lanciare il comando gluster peer status su uno dei nodi. In output verrà visualizzata la composizione del pool.
Ad esempio lanciandolo su hostname1.domain si otterrà:
# gluster peer status Number of Peers: 3 Hostname: hostname2.domain Uuid: 2088ff36-dbf9-44a3-9b3b-8a3a94d64cd4 State: Peer in Cluster (Connected) Hostname: hostname3.domain Uuid: ce7b0621-4068-43e4-b2a5-585c23ade1de State: Peer in Cluster (Connected) Hostname: hostname4.domain Uuid: ae5dfd23-4a65-a2e6-be85-3e5c11abe5cd State: Peer in Cluster (Connected) Creazione delle unità base di storage (Brick)In GestioneServiziGenerali.GlusterFS un Brick è l'unità base dello storage, rappresentata da una directory su un server del trusted storage pool.Creazione Brick per GLANCENota bene:
Creazione Brick per NOVANota bene:
Creazione del volume condivisoI Brick vengono utlizzati per comporre il volume di storage condiviso sui nodi. La creazione del volume può essere effettuata su uno qualsiasi dei nodi che compongono il trusted storage pool. Ciascun Brick è identificato dalla combinazione del nome del server con la directory da esportare, nel seguente formato hostname1.domain:/mnt/mydir .Creazione del volume condiviso per GLANCENota bene:
# gluster volume create volume-glance replica 3 transport tcp hostname2.domain:/mnt/brick-glance hostname3.domain:/mnt/brick-glance hostname4.domain:/mnt/brick-glanceFar partire il vomune appena creato: # gluster volume start volume-glancePer controllare il corretto avvio del volume, digitare: # gluster volume infoSul server che ospiterà il servizio GLANCE (Image repository) montare il volume creato. Editare il file /etc/fstab (se necessario creare la directory /var/lib/glance/images ):
hostname1.domain:/volume-glance /var/lib/glance/images glusterfs defaults 1 1Montare il volume condiviso: # mount –a Creazione del volume condiviso per NOVANota bene:
# gluster volume create volume-nova replica 2 transport tcp hostname1.domain:/mnt/brick-nova hostname2.domain:/mnt/brick-nova hostname3.domain:/mnt/brick-nova hostname4.domain:/mnt/brick-novaFar partire il vomune appena creato: # gluster volume start volume-novaSui server che ospiteranno il servizio NOVA (Compute) montare il volume creato. Editare il file /etc/fstab (se necessario creare la directory /var/lib/nova/instances ):
hostname1.domain:/volume-nova /var/lib/nova/instances glusterfs defaults 1 1Montare il volume condiviso: # mount –a Installazione KeystoneServer designato per l'installazione: hostname1.domain.
Configurazione keystone
Creazione di tenant, utente e ruolo per l'amministratore e del tenant per i serviziPer comodità in questa sezione si utilizzeranno delle variabili d'ambiente settate come segue:# export ADMIN_TOKEN=<ADMIN_TOKEN_VALUE> export OS_USERNAME=adminUser export OS_PASSWORD=<PASSWORD> export OS_TENANT_NAME=adminTenant export ENDPOINT=http://openstack-01.cnaf.infn.it:35357/v2.0/ export OS_AUTH_URL=http://openstack-01.cnaf.infn.it:5000/v2.0/Dove <ADMIN_TOKEN_VALUE> è il valore del parametro admin_token contenuto nel file /etc/keystone/keystone.conf .
Creazione del tenant "adminTenant"Definizione di tenant: Un tenant è un contenitore usato per raggruppare risorse o utenti.
Creazione dell'utente "adminUser"
# keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-create --tenant_id $ADMIN_TENANT_ID --name $OS_USERNAME --pass $OS_PASSWORD --enabled true +----------+-------------------------------------------------------------------------------------------------------------------------+ | Property | Value | +----------+-------------------------------------------------------------------------------------------------------------------------+ | email | None | | enabled | True | | id | 7d6a3a42c37948b88e2fa692b63587cd | | name | adminUser | | password | $6$rounds=40000$NxZyxUfO8VRj3gR.$zt9GJKwMDOUMDHCMhqAqJje3JAJmqqTXADZkXll.usGHEsEpAMgKsnZEfF0itF75ooyY1/tjxXBJq9MaQXnfo. | | tenantId | db2cf825309c49989595fc2ff915dc7e | +----------+-------------------------------------------------------------------------------------------------------------------------+Dove <ADMIN_TENANT_ID> è l'ID del tenant appena creato, mentre <ADMIN_PASSWORD> è la password scelta per l'utente "adminUser". Creazione del ruolo "admin"
# keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT role-create --name admin +----------+----------------------------------+ | Property | Value | +----------+----------------------------------+ | id | 2f196d11ff954c67befc3f190195f47c | | name | admin | +----------+----------------------------------+ # export ADMIN_ROLE_ID=2f196d11ff954c67befc3f190195f47c Assegnazione del ruolo "admin" all'utente "AdminUser"
Creazione del tenant "service":Questo tenant conterrà tutti gli utenti dei servizi che si desidera far conoscere al service catalog.
Creazione ed inserimento degli utenti associati ai serviziUna volta creato il "Service Tenant", si andrà ad inserire al suo interno un utente per ogni servizio che si vuole aggiungere.Creazione ed inserimento dell'utente associato a Glance
keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-create --tenant_id $SERVICE_TENANT_ID --name glance --pass <GLANCE_PASSWORD> --enabled=true +----------+-------------------------------------------------------------------------------------------------------------------------+ | Property | Value | +----------+-------------------------------------------------------------------------------------------------------------------------+ | email | None | | enabled | True | | id | 90ee5ac051eb4d1eaa543243987968a6 | | name | glance | | password | $6$rounds=40000$LApm.pXGC43cDMhN$J1mDpXad5r2YYNoMKK/P5t0VwXQidKauP/oHaVH5Nm9E7zGQLYamwa1Xxvh0FRcjOvhDtTSZ97CToKV6pWFPA1 | | tenantId | 73016aa2c9ca4aeba3736cf44cc8433b | +----------+-------------------------------------------------------------------------------------------------------------------------+ export GLANCE_USER_ID=90ee5ac051eb4d1eaa543243987968a6Dove <GLANCE_PASSWORD> è la password che si desidera associare all'utente del servizio Glance.
Creazione ed inserimento dell'utente associato a Nova
# keystone --token $ADMIN_TOKEN --endpoint $ENDPOINT user-role-add --user_id $NOVA_USER_ID --tenant_id $SERVICE_TENANT_ID --role_id $ADMIN_ROLE_IDNota bene: non viene visualizzato nulla se il comando ha successo. Definizione dei serviziKeystone agisce anche come catalogo dei servizi per permettere alle altre componenti OpenStack di conoscere quali sono gli endpoint dei vari servizi OpenStack.
Definizione del servizio identity (Keystone)
Definizione del servizio compute (Nova)Il servizio compute richiede un endpoint specifico per ogni tenant. La stringa%(tenant_id)s ed i singoli apici che racchiudono i valori di publicurl , internalurl e adminurl devono essere digitati esattamente come mostrato sia per l'endpoint compute che per l'endpoint volume e l'endpoint object storage (paragrafi successivi).
Definizione del servizio volume (Volume)Il servizio volume richiede un endpoint specifico per ogni tenant.
Definizione del servizio image (Glance)
Troubleshooting
[root@clstr-09 ~]# keystone tenant-list +----------------------------------+-------------+---------+ | id | name | enabled | +----------------------------------+-------------+---------+ | 8f74bb88623e41619a4c020baed3caa0 | adminTenant | True | | d6e9133d43b5440eae0db744c00bbca7 | service | True | +----------------------------------+-------------+---------+ [root@clstr-09 ~]# keystone user-list +----------------------------------+-----------+---------+-------+ | id | name | enabled | email | +----------------------------------+-----------+---------+-------+ | 30fc09b098b0451f8ec3861cf96f3422 | nova | True | | | 71228944d88b477188528c47942bcdb8 | adminUser | True | | | 7f3e370e94b54d8fa6ddbb02d5903f43 | glance | True | | +----------------------------------+-----------+---------+-------+ [root@clstr-09 ~]# keystone service-list +----------------------------------+----------+----------+---------------------------+ | id | name | type | description | +----------------------------------+----------+----------+---------------------------+ | 11279e60f5054500a1a0a4ea99016721 | glance | image | Glance Image Service | | 25197e8149da4bc199fc3e8476f4c5ba | volume | volume | Nova Volume Service | | 990589efda944f379888edc97f17cb75 | keystone | identity | Keystone Identity Service | | dbe9d50403c541f9b277e1c26b6e7946 | nova | compute | Nova Compute Service | +----------------------------------+----------+----------+---------------------------+ [root@clstr-09 ~]# keystone endpoint-list +----------------------------------+-----------+----------------------------------------------------+----------------------------------------------------+----------------------------------------------------+----------------------------------+ | id | region | publicurl | internalurl | adminurl | service_id | +----------------------------------+-----------+----------------------------------------------------+----------------------------------------------------+----------------------------------------------------+----------------------------------+ | 20fef2ceae314842aade705eb6c3ed17 | RegionOne | http://clstr-09.cnaf.infn.it:8774/v2/%(tenant_id)s | http://clstr-09.cnaf.infn.it:8774/v2/%(tenant_id)s | http://clstr-09.cnaf.infn.it:8774/v2/%(tenant_id)s | dbe9d50403c541f9b277e1c26b6e7946 | | 8868e9748ad4481cac64ab0e3d33e614 | RegionOne | http://clstr-09.cnaf.infn.it:8776/v1/%(tenant_id)s | http://clstr-09.cnaf.infn.it:8776/v1/%(tenant_id)s | http://clstr-09.cnaf.infn.it:8776/v1/%(tenant_id)s | 25197e8149da4bc199fc3e8476f4c5ba | | 8953d51657d8482a9037671db111f718 | RegionOne | http://clstr-09.cnaf.infn.it:5000/v2.0 | http://clstr-09.cnaf.infn.it:5000/v2.0 | http://clstr-09.cnaf.infn.it:35357/v2.0/ | 990589efda944f379888edc97f17cb75 | +----------------------------------+-----------+----------------------------------------------------+----------------------------------------------------+----------------------------------------------------+----------------------------------+ [root@clstr-09 ~]# keystone catalog Service: volume +-------------+-----------------------------------------------------------------------+ | Property | Value | +-------------+-----------------------------------------------------------------------+ | adminURL | http://clstr-09.cnaf.infn.it:8776/v1/8f74bb88623e41619a4c020baed3caa0 | | id | 8868e9748ad4481cac64ab0e3d33e614 | | internalURL | http://clstr-09.cnaf.infn.it:8776/v1/8f74bb88623e41619a4c020baed3caa0 | | publicURL | http://clstr-09.cnaf.infn.it:8776/v1/8f74bb88623e41619a4c020baed3caa0 | | region | RegionOne | +-------------+-----------------------------------------------------------------------+ Service: compute +-------------+-----------------------------------------------------------------------+ | Property | Value | +-------------+-----------------------------------------------------------------------+ | adminURL | http://clstr-09.cnaf.infn.it:8774/v2/8f74bb88623e41619a4c020baed3caa0 | | id | 20fef2ceae314842aade705eb6c3ed17 | | internalURL | http://clstr-09.cnaf.infn.it:8774/v2/8f74bb88623e41619a4c020baed3caa0 | | publicURL | http://clstr-09.cnaf.infn.it:8774/v2/8f74bb88623e41619a4c020baed3caa0 | | region | RegionOne | +-------------+-----------------------------------------------------------------------+ Service: identity +-------------+------------------------------------------+ | Property | Value | +-------------+------------------------------------------+ | adminURL | http://clstr-09.cnaf.infn.it:35357/v2.0/ | | id | 8953d51657d8482a9037671db111f718 | | internalURL | http://clstr-09.cnaf.infn.it:5000/v2.0 | | publicURL | http://clstr-09.cnaf.infn.it:5000/v2.0 | | region | RegionOne | +-------------+------------------------------------------+ Installazione GlanceServer designato per l'installazione: hostname1.domain.
Configurazione Glance
Editare i file di configurazione di Glance
Troubleshooting
# mkdir /stackimages # cd /stackimages # wget https://launchpad.net/cirros/trunk/0.3.0/+download/cirros-0.3.0-x86_64-disk.img # glance index # glance add name=cirros-0.3.0-x86_64 disk_format=qcow2 container_format=bare < /stackimages/cirros-0.3.0-x86_64-disk.img Uploading image 'cirros-0.3.0-x86_64' ================================================================================================================================================================================[100%] 23.2M/s, ETA 0h 0m 0s Added new image with ID: a08912a4-3c73-4b17-9d96-bed2d1290d3d # glance index ID Name Disk Format Container Format Size ------------------------------------ ------------------------------ -------------------- -------------------- -------------- a08912a4-3c73-4b17-9d96-bed2d1290d3d cirros-0.3.0-x86_64 qcow2 bare 9761280 -- MatteoManzali - 2012-11-19 |