IT

[openstack] 3.4 컴퓨팅 서비스 설치(nova) - centos7 오픈스택 설치 및 구축 프로젝트 (rocky 버전) 본문

프로젝트/openstack

[openstack] 3.4 컴퓨팅 서비스 설치(nova) - centos7 오픈스택 설치 및 구축 프로젝트 (rocky 버전)

abcee 2019. 3. 29. 02:05

3. 구성 과정

3.4 컴퓨팅 서비스 설치

3.4.1 Controller Node

○ 전제조건

• DB 설정

- root계정으로 DB 연결

$ mysql -u root -p

- nova_api, nova, nova_cell0, placement 데이터베이스 생성

MariaDB [(none)]> CREATE DATABASE nova_api;
MariaDB [(none)]> CREATE DATABASE nova;
MariaDB [(none)]> CREATE DATABASE nova_cell0;
MariaDB [(none)]> CREATE DATABASE placement;

- DB 액세스 권한 부여

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \
IDENTIFIED BY 'NOVA_DBPASS';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \
IDENTIFIED BY 'NOVA_DBPASS';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \
IDENTIFIED BY 'NOVA_DBPASS';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \
IDENTIFIED BY 'NOVA_DBPASS';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \
IDENTIFIED BY 'NOVA_DBPASS';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \
IDENTIFIED BY 'NOVA_DBPASS';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' \
IDENTIFIED BY 'PLACEMENT_DBPASS';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' \
IDENTIFIED BY 'PLACEMENT_DBPASS';

• admin 권한으로 CLI 명령을 쓰기 위해 admin 인증

$ . admin-openrc

• compute service credentials 생성

- nova user 생성

$ openstack user create --domain default --password-prompt nova

nova 유저 생성

- nova 유저가 service 프로젝트에 대한 admin 권한을 부여 받도록 역할 할당

$ openstack role add --project service --user nova admin

- nova라는 이름의 compute 타입 service를 서비스 카탈로그에 등록

$ openstack service create --name nova \
--description "OpenStack Compute" compute

서비스 카탈로그 등록

• Compute API Service 엔드포인트 생성

- 외부 통신이 가능한 네트워크 인터페이스를 통해 compute 서비스를 사용할 수 있도록 public endpoint를 서비스 카탈로그에 추가

$ openstack endpoint create --region RegionOne \
compute public http://controller:8774/v2.1

- 내부 네트워크 인터페이스를 통해 compute 서비스를 사용할 수 있도록 internal endpoint를 서비스 카탈로그에 추가

$ openstack endpoint create --region RegionOne \
compute internal http://controller:8774/v2.1

- 관리용 네트워크 인터페이스를 통해 compute 서비스를 사용할 수 있도록 admin endpoint를 서비스 카탈로그에 추가

$ openstack endpoint create --region RegionOne \
compute admin http://controller:8774/v2.1

• placement service credentials 생성

- placement service 유저 생성

$ openstack user create --domain default --password-prompt placement

placement 유저 생성

- placement 유저가 service 프로젝트에 대한 admin 권한을 부여 받도록 역할 할당

$ openstack role add --project service --user placement admin

- placement라는 이름의 placement 타입 service를 서비스 카탈로그에 등록

$ openstack service create --name placement \
--description "Placement API" placement

서비스 카탈로그 등록

• Compute API Service 엔드포인트 생성

- 외부 통신이 가능한 네트워크 인터페이스를 통해 placement 서비스를 사용할 수 있도록 public endpoint를 서비스 카탈로그에 추가

$ openstack endpoint create --region RegionOne \
placement public http://controller:8778

- 내부 네트워크 인터페이스를 통해 placement 서비스를 사용할 수 있도록 internal endpoint를 서비스 카탈로그에 추가

$ openstack endpoint create --region RegionOne \
placement internal http://controller:8778

- 관리용 네트워크 인터페이스를 통해 placement 서비스를 사용할 수 있도록 admin endpoint를 서비스 카탈로그에 추가

$ openstack endpoint create --region RegionOne \
placement admin http://controller:8778

○ 설치

• nova 패키지 설치( nova-api, nova-conductor, nova-console, nova-novncproxy, nova-scheduler, nova-placement-api)

# yum install openstack-nova-api openstack-nova-conductor \
openstack-nova-console openstack-nova-novncproxy \
openstack-nova-scheduler openstack-nova-placement-api

• /etc/nova/nova.conf 수정

# vi /etc/nova/nova.conf

• /etc/nova/nova.conf

[DEFAULT]
# compute, metadata api만 허용
enabled_apis = osapi_compute,metadata

# rabbitMQ 의 메시지 큐 접근 설정
transport_url = rabbit://openstack:RABBIT_PASS@controller

# my_ip에 controller 관리 ip 설정
my_ip = 1.0.0.61

# 네트워킹 서비스(neutron) 지원 허가 설정
use_neutron = true
firewall_driver = nova.virt.firewall.NoopFirewallDriver

[api_database]
# nova-api db접근 설정
connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova_api

[database]
# nova db접근 설정
connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova

[placement_database]
# placement db접근 설정
connection = mysql+pymysql://placement:PLACEMENT_DBPASS@controller/placement

[api]
# 인증 방식으로 keystone 설정
auth_strategy = keystone

[keystone_authtoken]
# Indentity service 접근 설정
auth_url = http://controller:5000/v3
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = nova
password = NOVA_PASS

[vnc]
# controller node의 관리 IP를 사용하도록 VNC proxy 구성
enabled = true
server_listen = $my_ip
server_proxyclient_address = $my_ip

[glance]
# glance 의 image service api 주소 설정
api_servers = http://controller:9292

[oslo_concurrency]
# lock_path 설정
lock_path = /var/lib/nova/tmp

[placement]
# Placement API 구성
region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://controller:5000/v3
username = placement
password = PLACEMENT_PASS

• /etc/httpd/conf.d/00-nova-placement-api.conf 에 누락된 매개변수 추가

# vi /etc/httpd/conf.d/00-nova-placement-api.conf

- /etc/httpd/conf.d/00-nova-placement-api.conf 파일 수정

<Directory /usr/bin>
  <IfVersion >= 2.4>
    Require all granted
  </IfVersion>
  <IfVersion < 2.4>
    Order allow,deny
    Allow from all
  </IfVersion>
</Directory>

- 변경된 사항 적용을 위해 httpd 서비스 재시작

# systemctl restart httpd

• nova-api와 placement 데이터베이스 초기화

# su -s /bin/sh -c "nova-manage api_db sync" nova

• cell0 데이터베이스 등록

# su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova

• cell1 셀 생성

# su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova

• nova 데이베이스 초기화

# su -s /bin/sh -c "nova-manage db sync" nova

• cell0와 cell1이 제대로 등록되었는지 확인

# su -s /bin/sh -c "nova-manage cell_v2 list_cells" nova

○ 마무리

• 다음 서비스(nova-api, nova-conductor, nova-console, nova-novncproxy, nova-scheduler, nova-placement-api, nova-authconsole)가 부팅 시 시작되도록 등록하고 서비스를 시작한다.

# systemctl enable openstack-nova-api.service \
openstack-nova-scheduler.service openstack-nova-conductor.service \
openstack-nova-novncproxy.service openstack-nova-consoleauth.service

# systemctl start openstack-nova-api.service \
openstack-nova-scheduler.service openstack-nova-conductor.service \
openstack-nova-novncproxy.service openstack-nova-consoleauth.service

3.4.2 Compute Node

○ 설치

• nova-compute 패키지 설치

# yum install openstack-nova-compute

• /etc/nova/nova.conf 수정

# vi /etc/nova/nova.conf

• /etc/nova/nova.conf

[DEFAULT]
# compute, metadata api만 허용
enabled_apis = osapi_compute,metadata

# rabbitMQ의 메시지 큐 접근 설정
transport_url = rabbit://openstack:RABBIT_PASS@controller

# my_ip에 compute 관리 ip 설정
my_ip = MANAGEMENT_INTERFACE_IP_ADDRESS

# 네트워킹 서비스(neutron) 지원 허가 설정
use_neutron = true
firewall_driver = nova.virt.firewall.NoopFirewallDriver

[api]
# 인증 방식으로 keystone 설정
auth_strategy = keystone

[keystone_authtoken]
# Indentity service 접근 설정
auth_url = http://controller:5000/v3
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = nova
password = NOVA_PASS

[vnc]
# server component는 모든 IP 허용, proxy component는 compute node ip만 허용하도록 설정
enabled = true
server_listen = 0.0.0.0
server_proxyclient_address = $my_ip
novncproxy_base_url = http://controller:6080/vnc_auto.html

[glance]
# glance 의 image service api 주소 설정
api_servers = http://controller:9292

[oslo_concurrency]
# lock_path 설정
lock_path = /var/lib/nova/tmp

[placement]
# Placement API 구성
region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://controller:5000/v3
username = placement
password = PLACEMENT_PASS

○ 구성 마무리

• 하드웨어 가속 사용 가능 여부 확인

$ egrep -c '(vmx|svm)' /proc/cpuinfo

• 1 혹은 그 이상일 경우 사용가능이므로 더이상의 설정 필요없음

• 0일 경우 사용할 수 없으므로 /etc/nova/nova.conf 에서 [libvirt] 섹션에서 가상머신 타입 qemu로 수정해야함

# vi /etc/nova/nova.conf
[libvirt]
# ...
virt_type = qemu

• libvirt, nova-compute 서비스가 부팅 시 시작되도록 등록하고 서비스를 시작한다.

# systemctl enable libvirtd.service openstack-nova-compute.service

# systemctl start libvirtd.service openstack-nova-compute.service

• 만약 nove-compute 서비스 시작이 실패할 경우 /var/log/nova/nova-compute.log 에서 로그 확인 가능

• 만약 controller:5672 is unreachable 로그가 기록되어 있을 경우 방화벽에서 5672 포트를 막고 있을 가능성이 농후하므로 방화벽 해제 후 재시도

 

3.4.3  Node 등록

각 노드에서의 설정이 끝났다면 cell 데이터 베이스에 compute node를 추가해야 한다.

○ Controller Node 및 Compute Node 설정 완료 후 Controller Node에서 설정

○ admin 만 사용가능한 명령을 쓰기위해 admin 인증

$ . admin-openrc

○ nova-compute가 db에 추가되어 있는지 확인

$ openstack compute service list --service nova-compute

○ 없을 경우 compute host 찾기

# su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova

3.4.4 검증

○ admin 만 사용가능한 명령을 쓰기위해 admin 인증

$ . admin-openrc

○ compute service 리스트 확인

$ openstack compute service list

○ catalog list 확인

$ openstack catalog list

○ openstack image 리스트 확인

$ openstack image list

○ cell과 placement api 동작 여부 확인

# nova-status upgrade check
Comments