Re.从零开始--基于UbuntuServer 20.04-OpenStack平台搭建_

这篇具有很好参考价值的文章主要介绍了Re.从零开始--基于UbuntuServer 20.04-OpenStack平台搭建_。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基于UbuntuServer 20.04-OpenStack平台搭建_

前言:

本文档基于ubuntu-server20.04版本和OpenStack Victoria搭建openstack环境

部署最小化Ubuntu-openstack满足基本服务;本文档均采用手动环境搭建

ubuntu源指定为阿里源,故搭环境需连接外网;

ens33 ens34 节点名称
Ubuntu-controller 192.168.100.10 192.168.200.10 controller
Ubuntu-compute 192.168.100.20 192.168.200.20 compute

一、构建基础环境

1、controller(控制节点)

1.配置网络接口

将第一个接口配置为管理接口:

iP地址:192.168.100.10

网络掩码:255.255.255.0(或/24)

默认网关:192.168.100.2(依据本机环境填写)

提供者接口使用一种特殊的配置,没有分配给它的 IP 地址。将第二个接口配置为提供程序接口:

例如, ens34

编辑/etc/network/interfaces文件以包含以下内容:

# The provider network interface
auto ens34(填写第二张网卡名称)
iface ens34 inet manual
up ip link set dev $IFACE up
down ip link set dev $IFACE down

2.配置域名解析

将节点的主机名设置为controller.

编辑/etc/hosts文件以包含以下内容:

192.168.100.10 controller
192.168.100.20 compute

2、compute(计算节点)

2.1.配置网络接口

将第一个接口配置为管理接口:
IP地址:192.168.100.20
网络掩码:255.255.255.0(或/24)
默认网关:192.168.100.2

提供者接口使用一种特殊的配置,没有分配给它的 IP 地址。将第二个接口配置为提供程序接口:

编辑/etc/network/interfaces文件以包含以下内容:

# The provider network interface
auto ens34
iface ens34 inet manual
up ip link set dev $IFACE up
down ip link set dev $IFACE down

2.2.配置名称解析

将节点的主机名设置为compute

编辑/etc/hosts文件以包含以下内容:

192.168.100.10 controller
192.168.100.20 compute

2.3.NTP时间同步

controller控制节点
(1).安装chrony软件包
#apt install -y chrony
(2).编辑该chrony.conf文件

根据您的环境的需要添加、更改或删除以下键。

对于 Ubuntu,编辑/etc/chrony/chrony.conf文件:

server 192.168.100.10 iburst
allow 192.168.100.0/24

重启NTP服务:

对于 Ubuntu:

#service chrony restart

其他节点参考控制器节点进行时钟同步。在所有其他节点上执行这些步骤。

compute及其他节点安装和配置组件
(1).安装软件包。
#apt install chrony
(2).配置chrony.conf文件

注释掉或删除除一个server键之外的所有键。将其更改为引用控制器节点。

对于 Ubuntu,编辑/etc/chrony/chrony.conf文件:

server controller iburst
#pool 2.debian.pool.ntp.org offline iburst

重启NTP服务。

#service chrony restart

二、添加OpenStack软件包及基本环境

1、启用ubuntu对应版本openstack存档

此处描述的存档启用需要在运行 OpenStack 服务的所有节点上完成。

适用于 Ubuntu 20.04 LTS 的 OpenStack Victoria:

#add-apt-repository cloud-archive:victoria

2、SQL数据库

大多数 OpenStack 服务使用 SQL 数据库来存储信息。数据库通常在控制器节点上运行。本指南中的过程根据发行版使用 MariaDB 或 MySQL。OpenStack 服务还支持其他 SQL 数据库,包括 PostgreSQL。

  1. 安装和配置组件

安装软件包:

从 Ubuntu 20.04 开始,安装软件包:

#apt install mariadb-server python3-pymysql

创建和编辑/etc/mysql/mariadb.conf.d/99-openstack.cnf文件并完成以下操作:

创建一个[mysqld]section,设置bind-address key为controller节点的管理IP地址,允许其他节点通过管理网络访问。设置附加键以启用有用的选项和 UTF-8 字符集:

[mysqld]
bind-address = 192.168.100.10
default-storage-engine = innodb
innodb_file_per_table = on
max_connections = 4096
collation-server = utf8_general_ci
character-set-server = utf8

完成安装

重启数据库服务:

#service mysql restart

通过运行mysql_secure_installation 脚本来保护数据库服务。特别是,为数据库root帐户选择一个合适的密码 :(设置数据库密码为000000)

#mysql_secure_installation

3、rabbit消息队列

OpenStack 使用消息队列来协调服务之间的操作和状态信息。消息队列服务通常在控制器节点上运行。OpenStack 支持多种消息队列服务,包括RabbitMQ、 Qpid和ZeroMQ。但是,大多数打包 OpenStack 的发行版都支持特定的消息队列服务。本指南实现了 RabbitMQ 消息队列服务,因为大多数发行版都支持它

安装和配置组件

安装软件包:

#apt install rabbitmq-server

添加openstack用户,用户密码设置为000000:

#rabbitmqctl add_user openstack 000000
Creating user "openstack" ...

替换RABBIT_PASS为合适的密码。

允许用户的配置、写入和读取访问权限 openstack:

#rabbitmqctl set_permissions openstack ".*" ".*" ".*"
Setting permissions for user "openstack" in vhost "/" ...

4、memcached内存缓存处理

内存缓存

服务的身份服务认证机制使用 Memcached 来缓存令牌。memcached 服务通常在控制器节点上运行。对于生产部署,我们建议启用防火墙、身份验证和加密的组合来保护它。

用于 Ubuntu 的 Memcached

服务的身份服务认证机制使用 Memcached 来缓存令牌。memcached 服务通常在控制器节点上运行。对于生产部署,我们建议启用防火墙、身份验证和加密的组合来保护它。

安装和配置组件

安装软件包:

对于 Ubuntu 18.04 和更新版本,请使用:

#apt install memcached python3-memcache

编辑/etc/memcached.conf文件并将服务配置为使用控制器节点的管理 IP 地址。这是为了允许其他节点通过管理网络进行访问修改:

-l 192.168.100.10

完成安装

重启 Memcached 服务:

#service memcached restart

5、etcd环境部署

OpenStack 服务可能会使用 Etcd,一种分布式可靠的键值存储,用于分布式密钥锁定、存储配置、跟踪服务实时性和其他场景。

etcd 服务运行在控制器节点上。

安装和配置组件

安装etcd软件包:

#apt install etcd

编辑该/etc/default/etcd文件,将ETCD_INITIAL_CLUSTER, ETCD_INITIAL_ADVERTISE_PEER_URLS, ETCD_ADVERTISE_CLIENT_URLS, 设置为ETCD_LISTEN_CLIENT_URLS控制器节点的管理 IP 地址,以允许其他节点通过管理网络访问:

ETCD_NAME="controller"
ETCD_DATA_DIR="/var/lib/etcd"
ETCD_INITIAL_CLUSTER_STATE="new"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
ETCD_INITIAL_CLUSTER="controller=http://192.168.100.10:2380"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.100.10:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.100.10:2379"
ETCD_LISTEN_PEER_URLS="http://0.0.0.0:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.100.10:2379"

完成安装

启用并重启 etcd 服务:

#systemctl enable etcd
#systemctl restart etcd

三、安装OpenStack服务

OpenStack 系统由几个单独安装的关键服务组成。这些服务根据您的云需求协同工作,包括计算、身份、网络、镜像、块存储、对象存储、遥测、编排和数据库服务。您可以单独安装这些项目中的任何一个,并将它们配置为独立的或连接的实体。

1、Keystone 身份认证服务搭建

本节介绍如何在控制器节点上安装和配置代号为 keystone 的 OpenStack Identity 服务。出于可扩展性的目的,此配置部署 Fernet 令牌和 Apache HTTP 服务器来处理请求。

(一)先决条件

在安装和配置身份服务之前,您必须创建一个数据库。

使用数据库访问客户端以root用户身份连接数据库服务器:

#mysql

创建keystone数据库:

MariaDB [(none)]> CREATE DATABASE keystone;

授予对keystone数据库的适当访问权限:(设置keystone用户密码为000000)

MariaDB [(none)]> GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' \
IDENTIFIED BY '000000';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'%' \
IDENTIFIED BY '000000';

退出数据库访问客户端。

安装和配置组件

本指南使用 Apache HTTP 服务器mod_wsgi在端口 5000 上为 Identity 服务请求提供服务。默认情况下,keystone 服务仍侦听此端口。该包为您处理所有 Apache 配置(包括mod_wsgiapache2 模块的激活和 Apache 中的 keystone 配置)。

运行以下命令来安装软件包:

#apt install keystone

编辑/etc/keystone/keystone.conf文件并完成以下操作:

在该[database]部分中,配置数据库访问:

[database]
# ...
connection = mysql+pymysql://keystone:000000@controller/keystone

在[token]部分中,配置 Fernet 令牌提供程序:

[token]
# ...
provider = fernet

填充身份服务数据库:

#su -s /bin/sh -c "keystone-manage db_sync" keystone

初始化 Fernet 密钥库:

#keystone-manage fernet_setup --keystone-user keystone --keystone-group keystone
#keystone-manage credential_setup --keystone-user keystone --keystone-group keystone

引导身份服务:

在 Queens 发布之前,keystone 需要在两个单独的端口上运行以适应 Identity v2 API,后者通常在端口 35357 上运行单独的仅管理员服务。随着 v2 API 的删除,keystone 可以在同一端口上运行所有接口。

# keystone-manage bootstrap --bootstrap-password 000000 \
 --bootstrap-admin-url http://controller:5000/v3/ \
 --bootstrap-internal-url http://controller:5000/v3/ \
 --bootstrap-public-url http://controller:5000/v3/ \
 --bootstrap-region-id RegionOne

配置 Apache HTTP 服务器

编辑/etc/apache2/apache2.conf文件并配置 ServerName选项以引用控制器节点:

ServerName controller

如果该ServerName条目尚不存在,则需要添加该条目。

SSL 方面

安全部署应将 Web 服务器配置为使用 SSL 或在 SSL 终结器后面运行。

完成安装

重启Apache服务:

#service apache2 restart

通过设置适当的环境变量来配置管理帐户:

$ export OS_USERNAME=admin
$ export OS_PASSWORD=000000
$ export OS_PROJECT_NAME=admin
$ export OS_USER_DOMAIN_NAME=Default
$ export OS_PROJECT_DOMAIN_NAME=Default
$ export OS_AUTH_URL=http://controller:5000/v3
$ export OS_IDENTITY_API_VERSION=3

(二)创建域、项目、用户和角色

Identity 服务为每个 OpenStack 服务提供身份验证服务。身份验证服务使用域、项目、用户和角色的组合。

尽管本指南中的keystone-manage 引导步骤中已经存在“默认”域,但创建新域的正式方法是:

$ openstack domain create --description "An Example Domain" example
+-------------+----------------------------------+
| Field    | Value              |
+-------------+----------------------------------+
| description | An Example Domain        |
| enabled   | True               |
| id     | 2f4f80574fd84fe6ba9067228ae0a50c |
| name    | example             |
| tags    | []                |
+-------------+----------------------------------+

本指南使用一个服务项目,该项目包含您添加到环境中的每个服务的唯一用户。创建service 项目:

$ openstack project create --domain default --description "Service Project" service
+-------------+----------------------------------+
| Field    | Value              |
+-------------+----------------------------------+
| description | Service Project         |
| domain_id  | default             |
| enabled   | True               |
| id     | 24ac7f19cd944f4cba1d77469b2a73ed |
| is_domain  | False              |
| name    | service              |
| parent_id  | default             |
| tags    | []                |
+-------------+----------------------------------+

常规(非管理员)任务应使用非特权项目和用户。

例如,本指南创建myproject项目和myuser 用户。

创建myproject项目:

$ openstack project create --domain default \
 --description "Demo Project" myproject

+-------------+----------------------------------+
| Field    | Value              |
+-------------+----------------------------------+
| description | Demo Project           |
| domain_id  | default             |
| enabled   | True               |
| id     | 231ad6e7ebba47d6a1e57e1cc07ae446 |
| is_domain  | False              |
| name    | myproject            |
| parent_id  | default             |
| tags    | []                |
+-------------+----------------------------------+

创建myuser用户:(用户密码设置为000000)

$ openstack user create --domain default --password-prompt myuser

User Password:
Repeat User Password:
+---------------------+----------------------------------+
| Field        | Value              |
+---------------------+----------------------------------+
| domain_id      | default             |
| enabled       | True               |
| id         | aeda23aa78f44e859900e22c24817832 |
| name        | myuser              |
| options       | {}                |
| password_expires_at | None               |
+---------------------+----------------------------------+

创建myrole角色:

$ openstack role create myrole
+-----------+----------------------------------+
| Field   | Value              |
+-----------+----------------------------------+
| domain_id | None               |
| id    | 997ce8d05fc143ac97d83fdfb5998552 |
| name   | myrole              |
+-----------+----------------------------------+

将myrole角色添加到myproject项目和myuser用户:

$ openstack role add --project myproject --user myuser myrole

此命令不提供任何输出。

2、创建 OpenStack 客户端环境脚本

前面的部分使用环境变量和命令选项的组合通过openstack客户端与身份服务进行交互 。为了提高客户端操作的效率,OpenStack 支持简单的客户端环境脚本,也称为 OpenRC 文件。这些脚本通常包含所有客户端的通用选项,但也支持独特的选项。

创建脚本

创建客户端环境的脚本admin和demo 项目和用户。本指南的后续部分将参考这些脚本来加载客户端操作的适当凭据

创建并编辑admin-openrc文件并添加以下内容:

export OS_PROJECT_DOMAIN_NAME=Default
export OS_USER_DOMAIN_NAME=Default
export OS_PROJECT_NAME=admin
export OS_USERNAME=admin
export OS_PASSWORD=000000
export OS_AUTH_URL=http://controller:5000/v3
export OS_IDENTITY_API_VERSION=3
export OS_IMAGE_API_VERSION=2

创建并编辑demo-openrc文件并添加以下内容:

export OS_PROJECT_DOMAIN_NAME=Default
export OS_USER_DOMAIN_NAME=Default
export OS_PROJECT_NAME=myproject
export OS_USERNAME=myuser
export OS_PASSWORD=000000
export OS_AUTH_URL=http://controller:5000/v3
export OS_IDENTITY_API_VERSION=3
export OS_IMAGE_API_VERSION=2

使用脚本

要将客户端作为特定项目和用户运行,您只需在运行它们之前加载关联的客户端环境脚本。

例如:加载admin-openrc文件以使用身份服务的位置以及admin项目和用户凭据填充环境变量:

$ source ./admin-openrc

请求身份验证令牌:

$ openstack token issue
+------------+-----------------------------------------------------------------+
| Field   | Value                              |
+------------+-----------------------------------------------------------------+
| expires  | 2016-02-12T20:44:35.659723Z                   |
| id     | gAAAAABWvjYj-Zjfg8WXFaQnUd1DMYTBVrKw4h3fIagi5NoEmh21U72SrRv2trl |
|      | JWFYhLi2_uPR31Igf6A8mH2Rw9kv_bxNo1jbLNPLGzW_u5FC7InFqx0yYtTwa1e |
|      | eq2b0f6-18KZyQhs7F3teAta143kJEWuNEYET-y7u29y0be1_64KYkM7E    |
| project_id | 343d245e850143a096806dfaefa9afdc                |
| user_id  | ac3377633149401296f6c0d92d79dc16                |
+------------+-----------------------------------------------------------------+

3、Glance镜像服务搭建

安装和配置 (Ubuntu)

本节介绍如何在控制器节点上安装和配置代号为glance的Image服务。为简单起见,此配置将镜像存储在本地文件系统上。

先决条件

在安装和配置 Image 服务之前,您必须创建数据库、服务凭证和 API 端点。

要创建数据库,请完成以下步骤:

使用数据库访问客户端以root用户身份连接数据库服务器:

#mysql

创建glance数据库:

MariaDB [(none)]> CREATE DATABASE glance;

授予对glance数据库的适当访问权限:

#MariaDB [(none)]> GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' \
 IDENTIFIED BY '000000';
#MariaDB [(none)]> GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%' \
 IDENTIFIED BY '000000';

退出数据库访问客户端。

来源admin凭据来访问仅管理员CLI命令:

$ source ./admin-openrc

要创建服务凭证,请完成以下步骤:

创建glance用户:(设置密码为000000)

$ openstack user create --domain default --password-prompt glance
User Password:
Repeat User Password:
+---------------------+----------------------------------+
| Field        | Value              |
+---------------------+----------------------------------+
| domain_id      | default             |
| enabled       | True               |
| id         | 3f4e777c4062483ab8d9edd7dff829df |
| name        | glance              |
| options       | {}                |
| password_expires_at | None               |
+---------------------+----------------------------------+

将admin角色添加到glance用户和 service项目:

$ openstack role add --project service --user glance admin

此命令不提供任何输出。

创建glance服务实体:

$ openstack service create --name glance --description "OpenStack Image" image
+-------------+----------------------------------+
| Field    | Value              |
+-------------+----------------------------------+
| description | OpenStack Image         |
| enabled   | True               |
| id     | 8c2c7f1b9b5049ea9e63757b5533e6d2 |
| name    | glance              |
| type    | image              |
+-------------+----------------------------------+

创建镜像服务 API 端点:

$ openstack endpoint create --region RegionOne image public http://controller:9292
+--------------+----------------------------------+
| Field    | Value              |
+--------------+----------------------------------+
| enabled   | True               |
| id      | 340be3625e9b4239a6415d034e98aace |
| interface  | public              |
| region    | RegionOne            |
| region_id  | RegionOne            |
| service_id  | 8c2c7f1b9b5049ea9e63757b5533e6d2 |
| service_name | glance              |
| service_type | image              |
| url     | http://controller:9292      |
+--------------+----------------------------------+
$ openstack endpoint create --region RegionOne image internal http://controller:9292
+--------------+----------------------------------+
| Field    | Value              |
+--------------+----------------------------------+
| enabled   | True               |
| id      | a6e4b153c2ae4c919eccfdbb7dceb5d2 |
| interface  | internal             |
| region    | RegionOne            |
| region_id  | RegionOne            |
| service_id  | 8c2c7f1b9b5049ea9e63757b5533e6d2 |
| service_name | glance              |
| service_type | image              |
| url     | http://controller:9292      |
+--------------+----------------------------------+
$ openstack endpoint create --region RegionOne image admin http://controller:9292
+--------------+----------------------------------+
| Field    | Value              |
+--------------+----------------------------------+
| enabled   | True               |
| id      | 0c37ed58103f4300a84ff125a539032d |
| interface  | admin              |
| region    | RegionOne            |
| region_id  | RegionOne            |
| service_id  | 8c2c7f1b9b5049ea9e63757b5533e6d2 |
| service_name | glance              |
| service_type | image              |
| url     | http://controller:9292      |
+--------------+----------------------------------+

安装和配置组件

安装软件包:

# apt install glance

编辑/etc/glance/glance-api.conf文件并完成以下操作:

在该[database]部分中,配置数据库访问:

[database]
# ...
connection = mysql+pymysql://glance:000000@controller/glance

替换GLANCE_DBPASS为您为影像服务数据库选择的密码。

在[keystone_authtoken]和[paste_deploy]部分,配置身份服务访问:

[keystone_authtoken]
# ...
www_authenticate_uri = http://controller:5000
auth_url = http://controller:5000
memcached_servers = controller:11211
auth_type = password
project_domain_name = Default
user_domain_name = Default
project_name = service
username = glance
password = 000000

[paste_deploy]
# ...
flavor = keystone

在该[glance_store]部分中,配置本地文件系统存储和镜像文件的位置:

[glance_store]
# ...
stores = file,http
default_store = file
filesystem_store_datadir = /var/lib/glance/images/

填充影像服务数据库:

# su -s /bin/sh -c "glance-manage db_sync" glance

完成安装

重新启动镜像服务:

# service glance-api restart

使用QCOW2磁盘格式、裸容器格式和公开可见性将镜像上传到 Image 服务 ,以便所有项目都可以访问它:

$ glance image-create --name "cirros" --file cirros-0.4.0-x86_64-disk.img --disk-format qcow2 --container-format bare --visibility=public
+------------------+------------------------------------------------------+
| Field      | Value                         |
+------------------+------------------------------------------------------+
| checksum     | 133eae9fb1c98f45894a4e60d8736619           |
| container_format | bare                         |
| created_at    | 2015-03-26T16:52:10Z                 |
| disk_format   | qcow2                        |
| file       | /v2/images/cc5c6982-4910-471e-b864-1098015901b5/file |
| id        | cc5c6982-4910-471e-b864-1098015901b5         |
| min_disk     | 0                          |
| min_ram     | 0                          |
| name       | cirros                        |
| owner      | ae7a98326b9c455588edd2656d723b9d           |
| protected    | False                        |
| schema      | /v2/schemas/image                  |
| size       | 13200896                       |
| status      | active                        |
| tags       |                           |
| updated_at    | 2015-03-26T16:52:10Z                 |
| virtual_size   | None                         |
| visibility    | public                        |
+------------------+------------------------------------------------------+

OpenStack 动态生成 ID,因此您将在示例命令输出中看到不同的值。

确认上传镜像并验证属性:

$ glance image-list
+--------------------------------------+--------+--------+
| ID                  | Name  | Status |
+--------------------------------------+--------+--------+
| 38047887-61a7-41ea-9b49-27987d5e8bb9 | cirros | active |
+--------------------------------------+--------+--------+

4、Placement环境搭建

为 Ubuntu 安装和配置 Placement

本节介绍如何在使用 Ubuntu 软件包时安装和配置放置服务。

先决条件

在安装和配置放置服务之前,您必须创建数据库、服务凭证和 API 端点。

创建数据库

要创建数据库,请完成以下步骤:

使用数据库访问客户端以root用户身份连接数据库服务器:

# mysql

创建placement数据库:

MariaDB [(none)]> CREATE DATABASE placement;

授予对数据库的适当访问权限:

MariaDB [(none)]> GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' IDENTIFIED BY '000000';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' IDENTIFIED BY '000000';

退出数据库访问客户端。

配置用户和端点

来源admin凭据来访问仅管理员CLI命令:

$ source ./admin-openrc

使用您选择的创建一个安置服务用户PLACEMENT_PASS:(设置密码为000000)

$ openstack user create --domain default --password-prompt placement
User Password:
Repeat User Password:
+---------------------+----------------------------------+
| Field        | Value              |
+---------------------+----------------------------------+
| domain_id      | default             |
| enabled       | True               |
| id         | fa742015a6494a949f67629884fc7ec8 |
| name        | placement            |
| options       | {}                |
| password_expires_at | None               |
+---------------------+----------------------------------+

将 Placement 用户添加到具有 admin 角色的服务项目:

$ openstack role add --project service --user placement admin

在服务目录中创建 Placement API 条目:

$ openstack service create --name placement --description "Placement API" placement
+-------------+----------------------------------+
| Field    | Value              |
+-------------+----------------------------------+
| description | Placement API          |
| enabled   | True               |
| id     | 2d1a27022e6e4185b86adac4444c495f |
| name    | placement            |
| type    | placement            |
+-------------+----------------------------------+

创建 Placement API 服务端点:

$ openstack endpoint create --region RegionOne placement public http://controller:8778
+--------------+----------------------------------+
| Field    | Value              |
+--------------+----------------------------------+
| enabled   | True               |
| id      | 2b1b2637908b4137a9c2e0470487cbc0 |
| interface  | public              |
| region    | RegionOne            |
| region_id  | RegionOne            |
| service_id  | 2d1a27022e6e4185b86adac4444c495f |
| service_name | placement            |
| service_type | placement            |
| url     | http://controller:8778      |
+--------------+----------------------------------+
$ openstack endpoint create --region RegionOne placement internal http://controller:8778
+--------------+----------------------------------+
| Field    | Value              |
+--------------+----------------------------------+
| enabled   | True               |
| id      | 02bcda9a150a4bd7993ff4879df971ab |
| interface  | internal             |
| region    | RegionOne            |
| region_id  | RegionOne            |
| service_id  | 2d1a27022e6e4185b86adac4444c495f |
| service_name | placement            |
| service_type | placement            |
| url     | http://controller:8778      |
+--------------+----------------------------------+
$ openstack endpoint create --region RegionOne placement admin http://controller:8778
+--------------+----------------------------------+
| Field    | Value              |
+--------------+----------------------------------+
| enabled   | True               |
| id      | 3d71177b9e0f406f98cbff198d74b182 |
| interface  | admin              |
| region    | RegionOne            |
| region_id  | RegionOne            |
| service_id  | 2d1a27022e6e4185b86adac4444c495f |
| service_name | placement            |
| service_type | placement            |
| url     | http://controller:8778      |
+--------------+----------------------------------+

安装和配置组件

安装软件包:

# apt install placement-api

编辑/etc/placement/placement.conf文件并完成以下操作:

在该[placement_database]部分中,配置数据库访问:

[placement_database]
# ...
connection = mysql+pymysql://placement:000000@controller/placement

在[api]和[keystone_authtoken]部分,配置身份服务访问:

[api]
# ...
auth_strategy = keystone
[keystone_authtoken]
# ...
auth_url = http://controller:5000/v3
memcached_servers = controller:11211
auth_type = password
project_domain_name = Default
user_domain_name = Default
project_name = service
username = placement
password = 000000

填充placement数据库:

# su -s /bin/sh -c "placement-manage db sync" placement

完成安装

重新加载 Web 服务器以进行调整以获得用于放置的新配置设置。

# service apache2 restart

来源admin凭据来访问仅管理员CLI命令:

$ source ./admin-openrc

执行状态检查以确保一切正常:

$ placement-status upgrade check
+----------------------------------+
| Upgrade Check Results      |
+----------------------------------+
| Check: Missing Root Provider IDs |
| Result: Success         |
| Details: None          |
+----------------------------------+
| Check: Incomplete Consumers   |
| Result: Success         |
| Details: None          |
+----------------------------------+

安装osc-placement插件:

此示例使用PyPI和pip,但如果您使用的是分发包,则可以从其存储库安装该包。随着迁移到 python3,您将需要指定pip3或从您的发行版安装python3-osc-placement。

$ pip3 install osc-placement

列出可用的资源类和特征:

$ openstack --os-placement-api-version 1.2 resource class list --sort-column name
+----------------------------+
| name            |
+----------------------------+
| DISK_GB          |
| IPV4_ADDRESS        |
| ...            |
$ openstack --os-placement-api-version 1.6 trait list --sort-column name
+---------------------------------------+
| name                 |
+---------------------------------------+
| COMPUTE_DEVICE_TAGGING        |
| COMPUTE_NET_ATTACH_INTERFACE     |
| ...                  |

5、Nova计算服务搭建

5.1、为 Ubuntu 安装和配置控制器节点

本节介绍如何在控制器节点上安装和配置代号为nova的Compute服务。

先决条件

在安装和配置 Compute 服务之前,您必须创建数据库、服务凭证和 API 端点。

要创建数据库,请完成以下步骤:

使用数据库访问客户端以root用户身份连接数据库服务器:

# mysql

创建nova_api,nova和nova_cell0数据库:

MariaDB [(none)]> CREATE DATABASE nova_api;
MariaDB [(none)]> CREATE DATABASE nova;
MariaDB [(none)]> CREATE DATABASE nova_cell0;

授予对数据库的适当访问权限:

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \
 IDENTIFIED BY '000000';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \
 IDENTIFIED BY '000000';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \
 IDENTIFIED BY '000000';
 
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \
 IDENTIFIED BY '000000';
MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \
 IDENTIFIED BY '000000';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \
 IDENTIFIED BY '000000';

退出数据库访问客户端。

来源admin凭据来访问仅管理员CLI命令:

$  source ./admin-openrc

创建计算服务凭证:

创建nova用户:(设置密码为000000)

$ openstack user create --domain default --password-prompt nova
User Password:
Repeat User Password:
+---------------------+----------------------------------+
| Field        | Value              |
+---------------------+----------------------------------+
| domain_id      | default             |
| enabled       | True               |
| id         | 8a7dbf5279404537b1c7b86c033620fe |
| name        | nova               |
| options       | {}                |
| password_expires_at | None               |
+---------------------+----------------------------------+

admin为nova用户添加角色:

$ openstack role add --project service --user nova admin

创建nova服务实体:

$ openstack service create --name nova --description "OpenStack Compute" compute
+-------------+----------------------------------+
| Field    | Value              |
+-------------+----------------------------------+
| description | OpenStack Compute        |
| enabled   | True               |
| id     | 060d59eac51b4594815603d75a00aba2 |
| name    | nova               |
| type    | compute             |
+-------------+----------------------------------+

创建 Compute API 服务端点:

$ openstack endpoint create --region RegionOne \
 compute public http://controller:8774/v2.1
+--------------+-------------------------------------------+
| Field    | Value                   |
+--------------+-------------------------------------------+
| enabled   | True                   |
| id      | 3c1caa473bfe4390a11e7177894bcc7b     |
| interface  | public                   |
| region    | RegionOne                 |
| region_id  | RegionOne                 |
| service_id  | 060d59eac51b4594815603d75a00aba2     |
| service_name | nova                   |
| service_type | compute                  |
| url     | http://controller:8774/v2.1        |
+--------------+-------------------------------------------+
$ openstack endpoint create --region RegionOne \
 compute internal http://controller:8774/v2.1
+--------------+-------------------------------------------+
| Field    | Value                   |
+--------------+-------------------------------------------+
| enabled   | True                   |
| id      | e3c918de680746a586eac1f2d9bc10ab     |
| interface  | internal                 |
| region    | RegionOne                 |
| region_id  | RegionOne                 |
| service_id  | 060d59eac51b4594815603d75a00aba2     |
| service_name | nova                   |
| service_type | compute                  |
| url     | http://controller:8774/v2.1        |
+--------------+-------------------------------------------+
$ openstack endpoint create --region RegionOne \
 compute admin http://controller:8774/v2.1
+--------------+-------------------------------------------+
| Field    | Value                   |
+--------------+-------------------------------------------+
| enabled   | True                   |
| id      | 38f7af91666a47cfb97b4dc790b94424     |
| interface  | admin                   |
| region    | RegionOne                 |
| region_id  | RegionOne                 |
| service_id  | 060d59eac51b4594815603d75a00aba2     |
| service_name | nova                   |
| service_type | compute                  |
| url     | http://controller:8774/v2.1        |

+--------------+-------------------------------------------+

安装 Placement 服务并配置用户和端点:

安装和配置组件

安装软件包:

# apt install nova-api nova-conductor nova-novncproxy nova-scheduler

编辑/etc/nova/nova.conf文件并完成以下操作:

在[api_database]和[database]部分,配置数据库访问:

[api_database]
# ...
connection = mysql+pymysql://nova:000000@controller/nova_api

 
[database]
# ...
connection = mysql+pymysql://nova:000000@controller/nova

替换NOVA_DBPASS为您为 Compute 数据库选择的密码。

在该[DEFAULT]部分,配置RabbitMQ消息队列访问:

[DEFAULT]
# ...
transport_url = rabbit://openstack:000000@controller:5672/

在[api]和[keystone_authtoken]部分,配置身份服务访问:

[api]
# ...
auth_strategy = keystone
[keystone_authtoken]
# ...
www_authenticate_uri = http://controller:5000/
auth_url = http://controller:5000/
memcached_servers = controller:11211
auth_type = password
project_domain_name = Default
user_domain_name = Default
project_name = service
username = nova
password = 000000

在该[DEFAULT]部分中,配置my_ip选项以使用控制器节点的管理接口 IP 地址:

[DEFAULT]
# ...
my_ip = 192.168.100.10

配置/etc/nova/nova.conf的[neutron]部分。

在该[vnc]部分中,将 VNC 代理配置为使用控制器节点的管理接口 IP 地址:

[vnc]
enabled = true
# ...
server_listen = $my_ip
server_proxyclient_address = $my_ip

在该[glance]部分中,配置 Image 服务 API 的位置:

[glance]
# ...
api_servers = http://controller:9292

在该[oslo_concurrency]部分中,配置锁定路径:

[oslo_concurrency]
# ...
lock_path = /var/lib/nova/tmp

由于打包错误,请log_dir从该[DEFAULT]部分中删除该选项 。

在[placement]部分中,配置对 Placement 服务的访问:

[placement]
# ...
region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://controller:5000/v3
username = placement
password = 000000

填充nova-api数据库:

# su -s /bin/sh -c "nova-manage api_db sync" nova

注册cell0数据库:

# su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova

创建cell1单元格:

# su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova

填充 nova 数据库:

# su -s /bin/sh -c "nova-manage db sync" nova

验证 nova cell0 和 cell1 是否正确注册:

# su -s /bin/sh -c "nova-manage cell_v2 list_cells" nova
+-------+--------------------------------------+----------------------------------------------------+--------------------------------------------------------------+----------+
| Name |         UUID         |          Transport URL          |           Database Connection           | Disabled |
+-------+--------------------------------------+----------------------------------------------------+--------------------------------------------------------------+----------+
| cell0 | 00000000-0000-0000-0000-000000000000 |            none:/            | mysql+pymysql://nova:****@controller/nova_cell0?charset=utf8 | False  |
| cell1 | f690f4fd-2bc5-4f15-8145-db561a7b9d3d | rabbit://openstack:****@controller:5672/nova_cell1 | mysql+pymysql://nova:****@controller/nova_cell1?charset=utf8 | False  |
+-------+--------------------------------------+----------------------------------------------------+--------------------------------------------------------------+----------+

完成安装

重新启动计算服务:

# service nova-api restart
# service nova-scheduler restart
# service nova-conductor restart
# service nova-novncproxy restart

5.2、为 Ubuntu 安装和配置计算节点

本节介绍如何在计算节点上安装和配置计算服务。该服务支持多个管理程序来部署实例或虚拟机 (VM)。为简单起见,此配置在支持虚拟机硬件加速的计算节点上使用 Quick EMUlator (QEMU) 管理程序和基于内核的 VM (KVM) 扩展。在旧硬件上,此配置使用通用 QEMU 管理程序。您可以按照这些说明稍加修改,以使用额外的计算节点水平扩展您的环境。

本节假设您按照本指南中的说明逐步配置第一个计算节点。如果要配置其他计算节点,请以与示例架构部分中的第一个计算节点类似的方式准备它们。每个额外的计算节点都需要一个唯一的 IP 地址。

安装和配置组件

默认配置文件因发行版而异。您可能需要添加这些部分和选项,而不是修改现有的部分和选项。此外,…配置片段中的省略号 ( ) 表示您应该保留的潜在默认配置选项。

安装软件包:

# apt install nova-compute

编辑/etc/nova/nova.conf文件并完成以下操作:

在该[DEFAULT]部分,配置RabbitMQ消息队列访问:

[DEFAULT]
# ...
transport_url = rabbit://openstack:000000@controller

在[api]和[keystone_authtoken]部分,配置身份服务访问:

[api]
# ...
auth_strategy = keystone
[keystone_authtoken]
# ...
www_authenticate_uri = http://controller:5000/
auth_url = http://controller:5000/
memcached_servers = controller:11211
auth_type = password
project_domain_name = Default
user_domain_name = Default
project_name = service
username = nova
password = 000000

在该[DEFAULT]部分中,配置my_ip选项:

[DEFAULT]
# ...
my_ip = MANAGEMENT_INTERFACE_IP_ADDRESS(192.168.100.20)

替换MANAGEMENT_INTERFACE_IP_ADDRESS为计算节点上管理网络接口的 IP 地址,示例架构中的第一个节点为 192.168.100.20

配置/etc/nova/nova.conf的[neutron]部分。

在[vnc]部分中,启用和配置远程控制台访问:

[vnc]
# ...
enabled = true
server_listen = 0.0.0.0
server_proxyclient_address = $my_ip
novncproxy_base_url = http://controller:6080/vnc_auto.html

服务器组件侦听所有 IP 地址,代理组件仅侦听计算节点的管理接口 IP 地址。基本 URL 指示您可以使用 Web 浏览器访问此计算节点上实例的远程控制台的位置。

在该[glance]部分中,配置 Image 服务 API 的位置:

[glance]
# ...
api_servers = http://controller:9292

在该[oslo_concurrency]部分中,配置锁定路径:

[oslo_concurrency]
# ...
lock_path = /var/lib/nova/tmp

在[placement]部分中,配置 Placement API:

[placement]
# ...
region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://controller:5000/v3
username = placement
password = 000000

完成安装

确定您的计算节点是否支持虚拟机的硬件加速:

$ egrep -c '(vmx|svm)' /proc/cpuinfo

如果此命令返回值,则您的计算节点支持硬件加速,这通常不需要额外配置。one or greater

如果此命令返回值zero,则您的计算节点不支持硬件加速,您必须配置libvirt为使用 QEMU 而不是 KVM。

编辑文件中的[libvirt]部分,/etc/nova/nova-compute.conf如下所示:

[libvirt]
# ...
virt_type = qemu

重启计算服务:

# service nova-compute restart

​ 如果nova-compute服务无法启动,请检查 /var/log/nova/nova-compute.log。该错误消息可能表明控制器节点上的防火墙阻止访问端口 5672。将防火墙配置为打开控制器节点上的端口 5672 并重新启动 计算节点上的服务。AMQP server on controller:5672 is unreachablenova-compute

5.3、将计算节点添加到cell数据库中

重要

在控制器节点上运行以下命令。

获取管理员凭据以启用仅限管理员的 CLI 命令,然后确认数据库中有计算主机:

$ source ./admin-openrc
$ openstack compute service list --service nova-compute
+----+-------+--------------+------+-------+---------+--------------------------+
| ID | Host | Binary    | Zone | State | Status | Updated At         |
+----+-------+--------------+------+-------+---------+--------------------------+
| 1 | node1 | nova-compute | nova | up  | enabled | 2017-04-14T15:30:44.000000 |
+----+-------+--------------+------+-------+---------+--------------------------+

发现计算主机:

# su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova
Found 2 cell mappings.
Skipping cell0 since it does not contain hosts.
Getting compute nodes from cell 'cell1': ad5a5985-a719-4567-98d8-8d148aaae4bc
Found 1 computes in cell: ad5a5985-a719-4567-98d8-8d148aaae4bc
Checking host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3
Creating host mapping for compute host 'compute': fe58ddc1-1d65-4f87-9456-bc040dc106b3

【非必要步骤】添加新计算节点时,您必须在控制器节点上运行以注册这些新计算节点。或者,您可以在 中设置适当的间隔 :

nova-manage cell_v2 discover_hosts/etc/nova/nova.conf

[scheduler]
discover_hosts_in_cells_interval = 300

验证操作

验证计算服务的运行。

在控制器节点上执行这些命令。

来源admin凭据来访问仅管理员CLI命令:

$ source ./admin-openrc

列出服务组件以验证每个进程的成功启动和注册:

$ openstack compute service list
+----+--------------------+------------+----------+---------+-------+----------------------------+
| Id | Binary       | Host    | Zone   | Status | State | Updated At         |
+----+--------------------+------------+----------+---------+-------+---------------------------+
| 1 | nova-scheduler   | controller | internal | enabled | up  | 2016-02-09T23:11:15.000000 |
| 2 | nova-conductor   | controller | internal | enabled | up  | 2016-02-09T23:11:16.000000 |
| 3 | nova-compute    | compute1  | nova   | enabled | up  | 2016-02-09T23:11:20.000000 |
+----+--------------------+------------+----------+---------+-------+----------------------------+

6、Neutron平台网络服务搭建

6.1、安装和配置控制器节点

先决条件

在配置 OpenStack Networking (neutron) 服务之前,您必须创建数据库、服务凭证和 API 端点。

要创建数据库,请完成以下步骤:

使用数据库访问客户端以root用户身份连接数据库服务器:

$ mysql -u root -p

创建neutron数据库:

MariaDB [(none)]>  CREATE DATABASE neutron;

授予对neutron数据库的适当访问权限,替换 NEUTRON_DBPASS为合适的密码:

MariaDB [(none)]> GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' \
 IDENTIFIED BY '000000';

MariaDB [(none)]> GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' \
 IDENTIFIED BY '000000';

退出数据库访问客户端。

来源admin凭据来访问仅管理员CLI命令:

$ source ./admin-openrc

要创建服务凭证,请完成以下步骤:

创建neutron用户:(设置密码为000000)

$ openstack user create --domain default --password-prompt neutron
User Password:
Repeat User Password:
+---------------------+----------------------------------+
| Field        | Value              |
+---------------------+----------------------------------+
| domain_id      | default             |
| enabled       | True               |
| id         | fdb0f541e28141719b6a43c8944bf1fb |
| name        | neutron             |
| options       | {}                |
| password_expires_at | None               |
+---------------------+----------------------------------+

admin为neutron用户添加角色:

$ openstack role add --project service --user neutron admin

创建neutron服务实体:

$ openstack service create --name neutron \
 --description "OpenStack Networking" network
+-------------+----------------------------------+
| Field    | Value              |
+-------------+----------------------------------+
| description | OpenStack Networking       |
| enabled   | True               |
| id     | f71529314dab4a4d8eca427e701d209e |
| name    | neutron             |
| type    | network             |
+-------------+----------------------------------+

创建网络服务 API 端点:

$ openstack endpoint create --region RegionOne \
 network public http://controller:9696
+--------------+----------------------------------+
| Field    | Value              |
+--------------+----------------------------------+
| enabled   | True               |
| id      | 85d80a6d02fc4b7683f611d7fc1493a3 |
| interface  | public              |
| region    | RegionOne            |
| region_id  | RegionOne            |
| service_id  | f71529314dab4a4d8eca427e701d209e |
| service_name | neutron             |
| service_type | network             |
| url     | http://controller:9696      |
+--------------+----------------------------------+


 

$ openstack endpoint create --region RegionOne \
 network internal http://controller:9696
+--------------+----------------------------------+
| Field    | Value              |
+--------------+----------------------------------+
| enabled   | True               |
| id      | 09753b537ac74422a68d2d791cf3714f |
| interface  | internal             |
| region    | RegionOne            |
| region_id  | RegionOne            |
| service_id  | f71529314dab4a4d8eca427e701d209e |
| service_name | neutron             |
| service_type | network             |
| url     | http://controller:9696      |
+--------------+----------------------------------+

 
 

$ openstack endpoint create --region RegionOne \
 network admin http://controller:9696
+--------------+----------------------------------+
| Field    | Value               |
+--------------+----------------------------------+
| enabled   | True               |
| id      | 1ee14289c9374dffb5db92a5c112fc4e |
| interface  | admin              |
| region    | RegionOne             |
| region_id  | RegionOne            |
| service_id  | f71529314dab4a4d8eca427e701d209e |
| service_name | neutron             |
| service_type | network             |
| url     | http://controller:9696      |
+--------------+----------------------------------+

在控制器节点上安装和配置网络组件。

安装组件

# apt install neutron-server neutron-plugin-ml2 \
 neutron-linuxbridge-agent neutron-l3-agent neutron-dhcp-agent \
 neutron-metadata-agent

配置服务器组件

编辑/etc/neutron/neutron.conf文件并完成以下操作:

在该[database]部分中,配置数据库访问:

[database]
# ...
connection = mysql+pymysql://neutron:000000@controller/neutron

在该[DEFAULT]部分中,启用模块化第 2 层 (ML2) 插件、路由器服务和重叠 IP 地址:

[DEFAULT]
# ...
core_plugin = ml2
service_plugins = router
allow_overlapping_ips = true

在该[DEFAULT]部分,配置RabbitMQ 消息队列访问:

[DEFAULT]
# ...
transport_url = rabbit://openstack:000000@controller

在[DEFAULT]和[keystone_authtoken]部分,配置身份服务访问:

[DEFAULT]
# ...
auth_strategy = keystone


[keystone_authtoken]
# ...
www_authenticate_uri = http://controller:5000
auth_url = http://controller:5000
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = neutron
password = 000000

在[DEFAULT]和[nova]部分中,配置 Networking 以通知 Compute 网络拓扑更改:

[DEFAULT]
# ...
notify_nova_on_port_status_changes = true
notify_nova_on_port_data_changes = true

 

[nova]
# ...
auth_url = http://controller:5000
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = nova
password = 000000

在该[oslo_concurrency]部分中,配置锁定路径:

[oslo_concurrency]
# ...
lock_path = /var/lib/neutron/tmp

配置模块化第 2 层 (ML2) 插件

ML2 插件使用 Linux 桥接机制为实例构建第 2 层(桥接和交换)虚拟网络基础设施。

编辑/etc/neutron/plugins/ml2/ml2_conf.ini文件并完成以下操作:

在该[ml2]部分中,启用平面、VLAN 和 VXLAN 网络:

[ml2]
# ...
type_drivers = flat,vlan,vxlan

在该[ml2]部分中,启用 VXLAN 自助网络:

[ml2]
# ...
tenant_network_types = vxlan

在该[ml2]部分中,启用 Linux 桥接和二层填充机制:

[ml2]
# ...
mechanism_drivers = linuxbridge,l2population

配置 ML2 插件后,删除type_drivers选项中的值 可能会导致数据库不一致。

Linux 网桥代理仅支持 VXLAN 覆盖网络。

在该[ml2]部分中,启用端口安全扩展驱动程序:

[ml2]
# ...
extension_drivers = port_security

在该[ml2_type_flat]部分中,将提供者虚拟网络配置为平面网络:

[ml2_type_flat]
# ...
flat_networks = provider

在该[ml2_type_vxlan]部分中,配置自助网络的 VXLAN 网络标识符范围:

[ml2_type_vxlan]
# ...
vni_ranges = 1:1000

在该[securitygroup]部分中,启用ipset以提高安全组规则的效率:

[securitygroup]
# ...
enable_ipset = true

配置 Linux 网桥代理

Linux 桥接代理为实例构建第 2 层(桥接和交换)虚拟网络基础架构并处理安全组。

编辑/etc/neutron/plugins/ml2/linuxbridge_agent.ini文件并完成以下操作:

在该[linux_bridge]部分中,将提供者虚拟网络映射到提供者物理网络接口:

[linux_bridge]
physical_interface_mappings = provider:PROVIDER_INTERFACE_NAME(ens34)

替换PROVIDER_INTERFACE_NAME为底层提供者物理网络接口的名称。

在该[vxlan]部分中,启用VXLAN覆盖网络,配置处理覆盖网络的物理网络接口的IP地址,并启用第2层填充:

[vxlan]
enable_vxlan = true
local_ip = OVERLAY_INTERFACE_IP_ADDRESS(192.168.100.10)
l2_population = true

替换OVERLAY_INTERFACE_IP_ADDRESS为处理覆盖网络的底层物理网络接口的 IP 地址。示例架构使用管理接口将流量隧道传输到其他节点。因此,替换OVERLAY_INTERFACE_IP_ADDRESS为控制器节点的管理 IP 地址。

在该[securitygroup]部分中,启用安全组并配置 Linux 网桥 iptables 防火墙驱动程序:

[securitygroup]
# ...
enable_security_group = true
firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver

通过验证以下所有sysctl值都设置为,确保您的 Linux 操作系统内核支持网桥过滤器:
/ect/sysctl.conf

net.bridge.bridge-nf-call-iptables=1
net.bridge.bridge-nf-call-ip6tables=1

要启用网络桥接支持,通常br_netfilter需要加载内核模块。

配置三层代理

第 3 层 (L3) 代理为自助服务虚拟网络提供路由和 NAT 服务。

编辑/etc/neutron/l3_agent.ini文件并完成以下操作:

在该[DEFAULT]部分中,配置 Linux 桥接接口驱动程序:

[DEFAULT]
# ...
interface_driver = linuxbridge

配置 DHCP 代理

DHCP 代理为虚拟网络提供 DHCP 服务。

编辑/etc/neutron/dhcp_agent.ini文件并完成以下操作:

在该[DEFAULT]部分中,配置 Linux 桥接接口驱动程序、Dnsmasq DHCP 驱动程序,并启用隔离元数据,以便提供商网络上的实例可以通过网络访问元数据:

[DEFAULT]
# ...
interface_driver = linuxbridge
dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq
enable_isolated_metadata = true

配置元数据代理

元数据代理向实例提供配置信息,例如凭据。

编辑/etc/neutron/metadata_agent.ini文件并完成以下操作:

在该[DEFAULT]部分中,配置元数据主机和共享密钥:

[DEFAULT]
# ...
nova_metadata_host = controller
metadata_proxy_shared_secret = 000000

配置 Compute 服务以使用 Networking 服务

必须安装 Nova 计算服务才能完成此步骤。

编辑/etc/nova/nova.conf文件并执行以下操作:

在该[neutron]部分中,配置访问参数,启用元数据代理,并配置密钥:

[neutron]
# ...
auth_url = http://controller:5000
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = neutron
password = 000000
service_metadata_proxy = true
metadata_proxy_shared_secret = 000000

替换METADATA_SECRET为您为元数据代理选择的机密。

完成安装

填充数据库:

# su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf \
 --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron

由于脚本需要完整的服务器和插件配置文件,因此 Networking 的数据库填充发生在

重启计算 API 服务:

# service nova-api restart

重新启动网络服务。

对于两个网络选项:

# service neutron-server restart
# service neutron-linuxbridge-agent restart
# service neutron-dhcp-agent restart
# service neutron-metadata-agent restart

对于网络选项 2,还要重新启动第 3 层服务:

# service neutron-l3-agent restart

6.2、安装和配置计算节点

计算节点处理实例的连接和安全组。

安装组件

#apt install neutron-linuxbridge-agent

配置通用组件

Networking 公共组件配置包括身份验证机制、消息队列和插件。

编辑/etc/neutron/neutron.conf文件并完成以下操作:

在该[database]部分中,注释掉所有connection选项,因为计算节点不直接访问数据库。

在该[DEFAULT]部分,配置RabbitMQ 消息队列访问:

[DEFAULT]
# ...
transport_url = rabbit://openstack:000000@controller

在[DEFAULT]和[keystone_authtoken]部分,配置身份服务访问:

[DEFAULT]
# ...
auth_strategy = keystone
[keystone_authtoken]

# ..
www_authenticate_uri = http://controller:5000
auth_url = http://controller:5000
memcached_servers = controller:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = neutron
password = 000000

注释掉或删除该[keystone_authtoken]部分中的任何其他选项 。

在该[oslo_concurrency]部分中,配置锁定路径:

[oslo_concurrency]
# ...
lock_path = /var/lib/neutron/tmp

在计算节点上配置网络组件。

配置 Linux 网桥代理

Linux 桥接代理为实例构建第 2 层(桥接和交换)虚拟网络基础架构并处理安全组。

编辑/etc/neutron/plugins/ml2/linuxbridge_agent.ini文件并完成以下操作:

在该[linux_bridge]部分中,将提供者虚拟网络映射到提供者物理网络接口:

[linux_bridge]
physical_interface_mappings = provider:PROVIDER_INTERFACE_NAME(ens34)

替换PROVIDER_INTERFACE_NAME为底层提供者物理网络接口的名称。

在该[vxlan]部分中,启用VXLAN覆盖网络,配置处理覆盖网络的物理网络接口的IP地址,并启用第2层填充:

[vxlan]
enable_vxlan = true
local_ip = OVERLAY_INTERFACE_IP_ADDRESS(192.168.100.20)
l2_population = true

替换OVERLAY_INTERFACE_IP_ADDRESS为处理覆盖网络的底层物理网络接口的 IP 地址。

示例架构使用管理接口将流量隧道传输到其他节点。因此,替换OVERLAY_INTERFACE_IP_ADDRESS为计算节点的管理IP地址。

在该[securitygroup]部分中,启用安全组并配置 Linux 网桥 iptables 防火墙驱动程序:

[securitygroup]
# ...
enable_security_group = true
firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver

通过验证以下所有sysctl值都设置为,确保您的 Linux 操作系统内核支持网桥过滤器:

net.bridge.bridge-nf-call-iptables
net.bridge.bridge-nf-call-ip6tables

要启用网络桥接支持,通常br_netfilter需要加载内核模块。

配置 Compute 服务以使用 Networking 服务

编辑/etc/nova/nova.conf文件并完成以下操作:

在该[neutron]部分,配置访问参数:

[neutron]
# ...
auth_url = http://controller:5000
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = neutron
password = 000000

完成安装

重启计算服务:

#service nova-compute restart

重启 Linux 网桥代理:

#service neutron-linuxbridge-agent restart

7、Horizon仪表盘服务搭建

为 Ubuntu 安装和配置

本节介绍如何在控制器节点上安装和配置仪表板。

仪表板所需的唯一核心服务是身份服务。您可以将仪表板与其他服务(例如镜像服务、计算和网络)结合使用。您还可以在具有独立服务(例如对象存储)的环境中使用仪表板。

本节假设使用 Apache HTTP 服务器和 Memcached 服务正确安装、配置和操作 Identity 服务。

7.1、安装和配置组件

安装软件包:

#apt install openstack-dashboard

编辑 /etc/openstack-dashboard/local_settings.py 文件并完成以下操作:

配置仪表板以在controller节点上使用 OpenStack 服务 :

OPENSTACK_HOST = "controller"

在仪表板配置部分,允许您的主机访问仪表板:

ALLOWED_HOSTS = ['one.example.com', 'two.example.com']

不要编辑ALLOWED_HOSTSUbuntu 配置部分下的参数。

ALLOWED_HOSTS也可以[‘*’]接受所有主机。这可能对开发工作有用,但可能不安全,不应在生产中使用。

配置memcached会话存储服务:

SESSION_ENGINE = 'django.contrib.sessions.backends.cache' 
CACHES = {
  'default': {
     'BACKEND': 'django.core.cache.backends.memcached.MemcachedCache',
     'LOCATION': 'controller:11211',
  }
}

启用身份 API 版本 3:

OPENSTACK_KEYSTONE_URL = "http://%s/identity/v3" % OPENSTACK_HOST
注意:出现登录错误时,将此处更改为:
#OPENSTACK_KEYSTONE_URL = "http://%s/identity/v3" % OPENSTACK_HOST
OPENSTACK_KEYSTONE_URL = "http://%s:5000" % OPENSTACK_HOST

并重启服务

启用对域的支持:

OPENSTACK_KEYSTONE_MULTIDOMAIN_SUPPORT = True

配置 API 版本:

OPENSTACK_API_VERSIONS = {
  "identity": 3,
  "image": 2,
  "volume": 3,
}

配置Default为您通过仪表板创建的用户的默认域:

OPENSTACK_KEYSTONE_DEFAULT_DOMAIN = "Default"

配置user为您通过仪表板创建的用户的默认角色:

OPENSTACK_KEYSTONE_DEFAULT_ROLE = "user"

(可选)配置时区:

TIME_ZONE = "TIME_ZONE"

(可选)替换TIME_ZONE为适当的时区标识符。

/etc/apache2/conf-available/openstack-dashboard.conf如果不包括,则添加以下行 。

WSGIApplicationGroup %{GLOBAL}

完成安装

重新加载 Web 服务器配置:

#systemctl reload apache2.service

7.2、验证 Ubuntu 的操作

使用 Web 浏览器访问仪表板

http://你的本机ip/horizon

使用admin或demo用户和default域凭据进行身份验证。

ubuntu 20.04 搭建openstack yoga,服务器搭建,ubuntu,linux,服务器,云计算,openstack文章来源地址https://www.toymoban.com/news/detail-809616.html

到了这里,关于Re.从零开始--基于UbuntuServer 20.04-OpenStack平台搭建_的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ubuntu20.04手动安装Openstack YOGA版本(双节点)

    当一个运维高手初次踏入openstack的世界的时候,首先面临的问题就是快速安装一个openstack然后玩起来。 但是openstack安装过于庞杂,手动安装的学习路线比较漫长。自动化安装工具往往跑到一半就报错。 自动安装openstack往往有一下几个坑: 网络问题。openstack常见的安装工具,

    2024年02月02日
    浏览(51)
  • Ubuntu20.04——一篇文章让你从零配置VINS_Mono环境以及运行(2023年最新)

    注:文末包含该文章涉及的所有安装包的网盘链接 零、换源(也可以先不换,后面觉得下载慢再换也行) 1、备份原来的源 2、打开源保存文件 3、换源(换其中一个就行,也可以去搜别的源) 4、更新源 一、安装git(克隆源代码)、gedit(编辑文本)、cmake、gcc、g++、build-e

    2024年02月04日
    浏览(42)
  • 基于Ubuntu20.04创建共享文件夹

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言——什么是共享文件夹? 一、怎么创建共享文件夹 1.window设置 2.虚拟机设置 总结 Ubuntu系统是安装在 VMware 虚拟机中的,两者之间经常要互传文件。 所以需要共享文件夹,所谓共享文件夹

    2024年02月08日
    浏览(54)
  • [Ubuntu]apt源改为阿里源(基于Ubuntu 20.04/18.04)

    我们需要根据我们自己Ubuntu系统版本来配置对应的apt源 Ubuntu 20.04代号为:focal Ubuntu 19.04代号为:disco Ubuntu 18.04代号为:bionic Ubuntu 17.04代号为:zesty Ubuntu 16.04代号为:xenial 查看命令: ubuntu 20.04 == 发行版本代号为 focal ubuntu 18.04 == 发行版本代号为 bionic ubuntu 20.04 ubuntu 18.04

    2024年04月23日
    浏览(72)
  • RK356x基于Ubuntu20.04搭建ROS开发环境

    CPU:RK356x 操作系统:arm64 Ubuntu20.04 1、首先确保开发板是可以联网的。

    2024年01月20日
    浏览(42)
  • 基于ubuntu20.04 环境跑通LIO_SAM重定位

    link 作为LOAM重要的一个变种,LIO_SAM基本上算是这个系列里面知识点最全面。这个软件框架包含了去畸变、特征点提取(角点、平面点)、前端、后端、回环,同时软件框架还融合了IMU信息,可以配置融合GPS信息。当然这种紧耦合方式也有一些缺点,要求传感器的时间同步做的

    2024年02月06日
    浏览(38)
  • 基于Ubuntu20.04搭建OpenHarmony v3.0.6的qemu仿真环境

    出于个人兴趣,也出于对国产操作系统的好奇,想尝试一下以LiteOS为内核的Openharmony。但过程相当不顺利,主要原因是官方文档内容组织的不敢恭维。挺好的东西,不把说明书写好,让用户怎么用?我研究的核心问题就一个:如何在基于Qemu仿真的Openharmony中输出一个hello worl

    2024年02月09日
    浏览(38)
  • ORB_SLAM2配置——基于Ubuntu20.04+ROS+gazebo仿真

    一、引言 ORB-SLAM2,它是基于单目、双目或RGB-D相机的一个完整的SLAM系统,其中包括地图重用、回环检测和重定位功能。这个系统可以适用于多种环境,无论是室内小型手持设备,还是工厂环境中飞行的无人机和城市中行驶的车辆,其都可以在标准CPU上实时运行。该系统的后端

    2023年04月13日
    浏览(46)
  • 基于ubuntu20.04安装kubernetes1.27.1(使用cri-docker)

    192.168.1.60 master 192.168.1.61 node1 192.168.1.62 node2 192.168.1.63 node3 不修改hostname会导致主机名相同,安装网络创建后,不同node节点的pod通信会有问题 2.3启动docker 配置service和socker文件 启动 dpkg 安装方便,不易出错 修改配置文件pause镜像使用过阿里源,默认使用的是国外的,下载不了

    2024年02月06日
    浏览(44)
  • 基于TICK的DevOps监控实战(Ubuntu20.04系统,Telegraf+InfluDB+Chronograf+Kapacitor)

            TICK 是InfluxData开发的 开源高性能时序中台 ,集成了采集、存储、分析、可视化等能力,由 Telegraf, InfluDB, Chronograf, Kapacitor等4个组件 以一种灵活松散、但又紧密配合,互为补充的方式构成。TICK专注于DevOps监控、IoT监控、实时分析等场景。          这4个组件间的

    2024年02月13日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包