OpenStack中那些很少见但很有用的操作

云计算 OpenStack
从2013年开始折腾OpenStack,到目前Pike版本已经发布,也有好几年的时间了。在使用过程中,我发现有很多很有用的操作,但是却很少被提及。这里我不直接点明我要介绍什么,直接抛出以下几个问题:

[[207647]]

写在前面

从2013年开始折腾OpenStack,到目前Pike版本已经发布,也有好几年的时间了。在使用过程中,我发现有很多很有用的操作,但是却很少被提及。这里我不直接点明我要介绍什么,直接抛出以下几个问题:

  • 如何把一个私有镜像共享给其它租户?
  • 上传一个很大的镜像老是超时怎么办,用户上传恶意镜像怎么办?
  • 如何阻止用户对虚拟机执行任何操作,保证虚拟机安全,防止误操作?
  • 虚拟机长时间不用却一直占用资源怎么办?
  • 虚拟机文件系统奔溃,如何进入rescue模式修复?
  • 如何把存储系统已经存在的数据卷导入到OpenStack中?
  • 能否把volume挂载到宿主机中?
  • 怎么把一个volume转交给另一个租户?
  • volume备份没有问题,但数据库数据丢失怎么办?

接下来我们针对每一点问题,详细介绍如何通过OpenStack已有的功能解决。

Glance

member

镜像是OpenStack中非常重要的数据,保存了用户的操作系统数据,因此保证镜像的安全性非常重要。通常上传到Glance的镜像可以设置为public和private,public的镜像对所有的租户可见,而private镜像只有租户自己可见。在新版本的Glance中,引入了一种新的visibility状态shared,该状态的镜像允许共享给指定的租户。共享的目标租户我们称为member,我们只需要把租户加到镜像的member中就可以访问该镜像了。

首先我们在admin租户下创建一个镜像如下:

  1. glance image-create --disk-format raw --container-format bare --name cirror-3.0 --file cirros-3.0.img 

在demo租户下该镜像是不可见:

  1. $ source  openrc_demo 
  2. $ glance image-list 
  3. +----+------+ 
  4. | ID | Name | 
  5. +----+------+ 
  6. +----+------+ 

我们把demo加到镜像member中:

  1. $ glance member-create ec5426f5-ab4d-43a6-a1e1-5a1919aa7bea fb498fdd27e74750a6b209158437696c 
  2. +--------------------------------------+----------------------------------+---------+ 
  3. | Image ID                             | Member ID                        | Status  | 
  4. +--------------------------------------+----------------------------------+---------+ 
  5. | ec5426f5-ab4d-43a6-a1e1-5a1919aa7bea | fb498fdd27e74750a6b209158437696c | pending | 
  6. +--------------------------------------+----------------------------------+---------+ 

admin这边把demo加入到member中,还需要demo这边确认,即member-update:

  1. $ glance member-update ec5426f5-ab4d-43a6-a1e1-5a1919aa7bea fb498fdd27e74750a6b209158437696c accepted 
  2. +--------------------------------------+----------------------------------+----------+ 
  3. | Image ID                             | Member ID                        | Status   | 
  4. +--------------------------------------+----------------------------------+----------+ 
  5. | ec5426f5-ab4d-43a6-a1e1-5a1919aa7bea | fb498fdd27e74750a6b209158437696c | accepted | 
  6. +--------------------------------------+----------------------------------+----------+ 

此时在demo租户下可以看到共享的镜像了:

  1. $ glance image-list 
  2. +--------------------------------------+------------+ 
  3. | ID                                   | Name       | 
  4. +--------------------------------------+------------+ 
  5. | ec5426f5-ab4d-43a6-a1e1-5a1919aa7bea | cirror-3.0 | 
  6. +--------------------------------------+------------+ 

task

通常我们通过image-create上传镜像,这至少存在以下两个问题:

  1. 镜像没有校验,你可以随便上传一个图片啥的,或者上传一个恶意文件,你甚至可以把Glance当作对象存储使用 :)。
  2. 镜像通常很大,上传占资源多并且慢,上传大镜像很容易就导致上传超时。

因此Glance从V2版本开始提出了task的概念,task可以定义上传镜像的任务流程,然后Glance会异步执行,并反馈结果,关于Glance task介绍可以参考Get started with tasks api in glance.

首先定义task,json文件如下:

  1. "input": { "image_properties": { "container_format""bare""disk_format""raw""name""cirros-0.3.5-x86_64" }, "import_from""http://download.cirros-cloud.net/0.3.5/cirros-0.3.5-x86_64-disk.img""import_from_format""raw" }, "type""import" } 

创建task:

  1. $ glance task-create --type import --input "$(cat import_image.json | jq '.input')" 
  2. +------------+----------------------------------------------------------------------------------+ 
  3. | Property   | Value                                                                            | 
  4. +------------+----------------------------------------------------------------------------------+ 
  5. | created_at | 2017-09-28T08:03:47Z                                                             | 
  6. | id         | 564b5ee4-56db-4360-bb71-d1d1c4d896a2                                             | 
  7. | input      | {"image_properties": {"container_format""bare""name":                        | 
  8. |            | "cirros-0.3.5-x86_64"}, "import_from_format""raw""import_from":              | 
  9. |            | "http://download.cirros-cloud.net/0.3.5/cirros-0.3.5-x86_64-disk.img"}           | 
  10. | message    |                                                                                  | 
  11. | owner      | ae21d957967d4df0865411f0389ed7e8                                                 | 
  12. | result     | None                                                                             | 
  13. | status     | pending                                                                          | 
  14. | type       | import                                                                           | 
  15. | updated_at | 2017-09-28T08:03:47Z                                                             | 
  16. +------------+----------------------------------------------------------------------------------+ 

查看task:

  1. $ glance task-list 
  2. +--------------------------------------+--------+------------+----------------------------------+ 
  3. | ID                                   | Type   | Status     | Owner                            | 
  4. +--------------------------------------+--------+------------+----------------------------------+ 
  5. | 564b5ee4-56db-4360-bb71-d1d1c4d896a2 | import | processing | ae21d957967d4df0865411f0389ed7e8 | 
  6. +--------------------------------------+--------+------------+----------------------------------+ 

此时glance会异步地下载镜像,完成后状态变成success:

  1. $ glance task-show 564b5ee4-56db-4360-bb71-d1d1c4d896a2 
  2. +------------+----------------------------------------------------------------------------------+ 
  3. | Property   | Value                                                                            | 
  4. +------------+----------------------------------------------------------------------------------+ 
  5. | created_at | 2017-09-28T09:32:10Z                                                             | 
  6. | expires_at | 2017-09-30T09:33:54Z                                                             | 
  7. | id         | 564b5ee4-56db-4360-bb71-d1d1c4d896a2                                             | 
  8. | input      | {"image_properties": {"container_format""bare""disk_format""raw""name":  | 
  9. |            | "cirros-0.3.5-x86_64"}, "import_from_format""raw""import_from":              | 
  10. |            | "http://download.cirros-cloud.net/0.3.5/cirros-0.3.5-x86_64-disk.img"}           | 
  11. | message    |                                                                                  | 
  12. | owner      | ae21d957967d4df0865411f0389ed7e8                                                 | 
  13. | result     | {"image_id""e5f8a941-f14f-4065-b381-b537271eba4c"}                             | 
  14. | status     | success                                                                          | 
  15. | type       | import                                                                           | 
  16. | updated_at | 2017-09-28T09:33:54Z                                                             | 
  17. +------------+----------------------------------------------------------------------------------+ 

result中保存了image的id。

该设计初衷是好的,不过从Mitaka版本开始,task API废弃了,社区准备重构import image流程,参考image import refactor

Nova

lock

这个功能理解起来比较容易,即锁定虚拟机,普通用户不能对locked的虚拟机执行任何操作,管理员通过该操作可以保证虚拟机的安全性,阻止用户误操作。

但是需要注意的是,lock只作用于普通用户,管理员是无视lock的。

我们首先创建一台虚拟机:

  1. nova boot --image f0b1239a-bb34-4cfb-ad06-e18cbb8ee4b9 --flavor m1.small --nic net-id=9f3aad86-f3c1-499b-ba62-5708dd229466 int32bit-test-lock 

执行lock操作:

  1. nova lock d7873036-15b0-4a06-9507-999dbf097c62 

然后我们使用普通用户(非管理员)对虚拟机执行任意操作:

  1. $ source openrc_demo 
  2. $ nova reboot d7873036-15b0-4a06-9507-999dbf097c62 
  3. Instance d7873036-15b0-4a06-9507-999dbf097c62 is locked (HTTP 409) (Request-ID: req-60271d7d-9afd-4ff4-a150-dfb632d5007f) 
  4. ERROR (CommandError): Unable to reboot the specified server(s). 
  5. $ nova delete d7873036-15b0-4a06-9507-999dbf097c62 
  6. Instance d7873036-15b0-4a06-9507-999dbf097c62 is locked (HTTP 409) (Request-ID: req-3e63515b-6e2e-419a-8c91-b27b1a546f12) 
  7. ERROR (CommandError): Unable to delete the specified server(s). 

另外需要强调的是,普通用户也可以执行lock操作,普通用户执行的lock,任意用户都可以unlock。但是如果是管理员执行的lock,默认policy情况下,普通用户不能执行unlock:

  1. $ nova unlock d7873036-15b0-4a06-9507-999dbf097c62 
  2. ERROR (Forbidden): Policy doesn't allow os_compute_api:os-lock-server:unlock:unlock_override to be performed. (HTTP 403) (Request-ID: req-9fabda60-4857-429e-ab1d-6ca6fb36844e)  

shelve

对于一些长期不用的虚拟机,即使关机了,仍然占用着资源,导致我们不能创建新的虚拟机。或者用户欠费时间很长了,又没有及时删掉虚拟机,导致一直占据着资源。此时我们可以通过shelve操作临时释放资源。

shelve操作的原理是先给虚拟机创建一个快照并上传到glance中,然后把虚拟机从OpenStack中删掉,从而释放所有资源。

  1. nova shelve 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 

shelve完成后我们查看虚拟机是否彻底从libvirt中删除:

  1. $ nova list --fields id,name,status,instance_name 
  2. +--------------------------------------+--------------------------------------+----------------------+-------------------+-------------------+ 
  3. | ID                                   | Id                                   | Name                 | Status            | Instance Name     | 
  4. +--------------------------------------+--------------------------------------+----------------------+-------------------+-------------------+ 
  5. | 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 | 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 | int32ibt-test-shelve | SHELVED_OFFLOADED | instance-0000033b | 
  6. +--------------------------------------+--------------------------------------+----------------------+-------------------+-------------------+ 
  7. $ virsh list --all | grep instance-0000033b 

可以发现instance-0000033b已经删除了。

使用glance可以查看创建的快照:

  1. $ glance image-list | grep shelved 
  2. | 36d7d6a0-aa18-4373-ad79-afcae8609489 | int32ibt-test-shelve-shelved              | 

如果想恢复虚拟机,通过unshelve 完成,该操作基于快照重新启动虚拟机,并把快照删掉。

  1. $ nova unshelve 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 
  2. $ nova list 
  3. +--------------------------------------+----------------------+--------+------------+-------------+---------------------+ 
  4. | ID                                   | Name                 | Status | Task State | Power State | Networks            | 
  5. +--------------------------------------+----------------------+--------+------------+-------------+---------------------+ 
  6. | 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 | int32ibt-test-shelve | ACTIVE | -          | Running     | test-net=10.0.51.22 | 
  7. +--------------------------------------+----------------------+--------+------------+-------------+---------------------+ 

rescue

我们经常在文件系统奔溃时,进入rescue模式修复,或者通过Live CD进入一个临时操作系统来修复奔溃的文件系统。

假如我们使用OpenStack启动的虚拟机出现问题导致启动不起来了,该怎么处理呢。

当然你可以把虚拟机的根磁盘挂载到本地(如果使用的是ceph,则直接通过rbd map),然后在宿主机中修复。但是作为云提供商,显然是不可能这么做,否则用户的数据太不安全了。我们需要用户自己去修复。

Nova提供了rescue API,其实现原理和我们前面提到的方式基本一样,先来看看rescue子命令用法:

  1. nova rescue [--password <password>] [--image <image>] <server> 

rescue会使用指定的image重新创建一个虚拟机,同时把原来的虚拟机根磁盘作为附加磁盘挂载到新创建的虚拟机,更确切地说是rebuild操作,它会重用原来虚拟机的信息,如flavor、network等。

注意:通过rescue新创建的虚拟机不支持指定keypair。rebuild也不支持,在前几天的邮件列表中有讨论这个问题,估计在Q版本中会实现。

我们尝试下

  1. $ nova rescue  --image f0b1239a-bb34-4cfb-ad06-e18cbb8ee4b9 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 
  2. +-----------+--------------+ 
  3. | Property  | Value        | 
  4. +-----------+--------------+ 
  5. | adminPass | 4mDD7BGsfvMN | 
  6. +-----------+--------------+ 
  7. $ nova list 
  8. +--------------------------------------+------+--------+------------+-------------+---------------------+ 
  9. | ID                                   | Name | Status | Task State | Power State | Networks            | 
  10. +--------------------------------------+------+--------+------------+-------------+---------------------+ 
  11. | 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 | 2    | ACTIVE | rescuing   | Running     | test-net=10.0.51.22 | 
  12. +--------------------------------------+------+--------+------------+-------------+---------------------+ 

当虚拟机rebuild完成后,查看其状态:

  1. $ nova list 
  2. +--------------------------------------+------+--------+------------+-------------+---------------------+ 
  3. | ID                                   | Name | Status | Task State | Power State | Networks            | 
  4. +--------------------------------------+------+--------+------------+-------------+---------------------+ 
  5. | 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 | 2    | RESCUE | -          | Running     | test-net=10.0.51.22 | 
  6. +--------------------------------------+------+--------+------------+-------------+---------------------+ 

虚拟机状态变为RESCUE。

我们通过virsh查看挂载的block设备:

  1. $ virsh domblklist 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 
  2. Target     Source 
  3. ------------------------------------------------ 
  4. vda        /var/lib/nova/instances/5b540e93-e931-45ed-a7f3-1dc2e88d8d33/disk.rescue 
  5. vdb        /var/lib/nova/instances/5b540e93-e931-45ed-a7f3-1dc2e88d8d33/disk 

其中disk.rescue是新创建虚拟机的临时根磁盘,disk是原来虚拟机的根磁盘。此时进入新创建的虚拟机,就可以对原来虚拟机的根磁盘进行操作了。

操作完成后,通过unrescue子命令恢复:

  1. nova unrescue 5b540e93-e931-45ed-a7f3-1dc2e88d8d33 

unrescue会再次rebuild虚拟机,并重新使用之前的根磁盘作为根磁盘,删除前面创建的临时根磁盘。

Cinder

manage

Cinder创建一个volume时,通常会由后端存储系统负责创建一个volume,并与Cinder volume一一映射。

如果我们存储系统中已经有一些volume了,比如Ceph中已有的一些rbd image,如何让Cinder纳管起来呢?可幸的是,Cinder是支持导入OpenStack外部的一些存储数据卷,这个操作称为manage。接下来我们演示下这个过程。

假设我们使用的是LVM后端driver,首先我们创建一个LV:

  1. $ lvcreate --name int32bit-test-LV --size 1G cinder-volumes 
  2.   Logical volume "int32bit-test-LV" created. 
  3. $ lvs | grep int32bit 
  4. int32bit-test-LV                               cinder-volumes -wi-a-----  1.00g 

使用manage子命令创建volume:

  1. $ cinder manage --name int32bit-test-manage 'devstack@lvm#cinder-volumes' int32bit-test-LV 
  2. +--------------------------------+--------------------------------------+ 
  3. |            Property            |                Value                 | 
  4. +--------------------------------+--------------------------------------+ 
  5. |          attachments           |                  []                  | 
  6. |       availability_zone        |                 nova                 | 
  7. |            bootable            |                false                 | 
  8. |      consistencygroup_id       |                 None                 | 
  9. |           created_at           |      2017-09-28T03:09:55.000000      | 
  10. |          description           |                 None                 | 
  11. |           encrypted            |                False                 | 
  12. |               id               | 9394b827-4ad0-488e-8df8-26476b3a8662 | 
  13. |            metadata            |                  {}                  | 
  14. |        migration_status        |                 None                 | 
  15. |          multiattach           |                False                 | 
  16. |              name              |      int32bit-test-manage            | 
  17. |     os-vol-host-attr:host      |     devstack@lvm#cinder-volumes      | 
  18. | os-vol-mig-status-attr:migstat |                 None                 | 
  19. | os-vol-mig-status-attr:name_id |                 None                 | 
  20. |  os-vol-tenant-attr:tenant_id  |   42ee53fa480f49149ce5c3df4a953a6b   | 
  21. |       replication_status       |                 None                 | 
  22. |              size              |                  0                   | 
  23. |          snapshot_id           |                 None                 | 
  24. |          source_volid          |                 None                 | 
  25. |             status             |               creating               | 
  26. |           updated_at           |                 None                 | 
  27. |            user_id             |   a61a3c0659bd4cca8cb5f66ea2fe3df7   | 
  28. |          volume_type           |                 None                 | 
  29. +--------------------------------+--------------------------------------+ 

以上两个参数,其中***个参数是host,注意Cinder的host格式为hostname@backend#pool,如果不清楚,使用admin账号show其中一个volume,查看其os-vol-host-attr:host。另一个参数为identifier,即后端存储数据卷名,对应LVM即LV name,对应Ceph rbd则为image name。

当volume状态变为available时,说明创建volume成功,并成功导入了指定的LV。

我们使用lvs查看我们创建的LV是否还存在:

  1. $ lvs | grep int32bit 

我们发现创建的int32bit-test-LV不存在了,这是怎么回事呢?我们查看了源码如下:

  1. def manage_existing(self, volume, existing_ref): 
  2.    lv_name = existing_ref['source-name'
  3.    self.vg.get_volume(lv_name) 
  4.  
  5.    if volutils.check_already_managed_volume(self.db, lv_name): 
  6.        raise exception.ManageExistingAlreadyManaged(volume_ref=lv_name) 
  7.  
  8.    # Attempt to rename the LV to match the OpenStack internal name
  9.    try: 
  10.        self.vg.rename_volume(lv_name, volume['name']) 
  11.    except processutils.ProcessExecutionError as exc: 
  12.        exception_message = (_("Failed to rename logical volume %(name)s, " 
  13.                               "error message was: %(err_msg)s"
  14.                             % {'name': lv_name, 
  15.                                'err_msg': exc.stderr}) 
  16.        raise exception.VolumeBackendAPIException( 
  17.            data=exception_message) 

从源码中发现,Cinder会自动把LV重命名,与Cinder volume对应起来。由此可见manage和create***不同的是:

  • create会调用后端driver创建一个volume。
  • manage调用后端driver重命名一个volume。

当然,也有一个相反的操作,即unmanage,这个和delete操作基本一样,***不同的是,delete会调用后端存储把数据卷彻底删除,而unmanage只是删除volume数据库记录,并不会删除后端存储的数据卷。

不过Cinder目前还不支持import/export volume到本地,但其实当初manage功能就是为了实现import volume blue-print的,参考add export import volume.

local-attach

Cinder作为OpenStack的块存储服务,最典型的应用是挂载到OpenStack虚拟机中,当作虚拟硬盘使用。但volume能不能挂载到物理机呢,或者说挂载到宿主机呢?答案是可以!我们把volume挂载到本地,称为local attach。

不过默认的cinderclient没有local attach命令,我们需要安装cinderclient扩展包:

  1. pip install python-brick-cinderclient-ext 

安装完后,可以发现cinder CLI多了两个子命令:

  1. $ cinder --help | grep local local-attach 
  2. local-detach 

下面演示如何把一个volume挂载到本地:

首先创建一个volume:

  1. $ cinder create --volume-type lvm --name int32bit-test-local-attach 1 
  2. +--------------------------------+--------------------------------------+ 
  3. | Property                       | Value                                | 
  4. +--------------------------------+--------------------------------------+ 
  5. | attached_servers               | []                                   | 
  6. | attachment_ids                 | []                                   | 
  7. | availability_zone              | nova                                 | 
  8. | bootable                       | false                                | 
  9. | consistencygroup_id            | None                                 | 
  10. | created_at                     | 2017-09-28T02:50:16.000000           | 
  11. | description                    | None                                 | 
  12. | encrypted                      | False                                | 
  13. | id                             | af767c74-1902-4a7a-8fff-4ea68695a3f8 | 
  14. | metadata                       | {}                                   | 
  15. | migration_status               | None                                 | 
  16. | multiattach                    | False                                | 
  17. name                           | int32bit-test-local-attach           | 
  18. | os-vol-host-attr:host          | None                                 | 
  19. | os-vol-mig-status-attr:migstat | None                                 | 
  20. | os-vol-mig-status-attr:name_id | None                                 | 
  21. | os-vol-tenant-attr:tenant_id   | ae21d957967d4df0865411f0389ed7e8     | 
  22. | replication_status             | None                                 | 
  23. size                           | 1                                    | 
  24. | snapshot_id                    | None                                 | 
  25. | source_volid                   | None                                 | 
  26. | status                         | creating                             | 
  27. | updated_at                     | None                                 | 
  28. | user_id                        | 70828c56f2844a9090d286c29a1fb599     | 
  29. | volume_type                    | lvm                                  | 
  30. +--------------------------------+--------------------------------------+ 

等待volume状态为available后,我们使用local-attach子命令挂载到本地:

  1. $ cinder local-attach af767c74-1902-4a7a-8fff-4ea68695a3f8 
  2. +----------+-----------------------------------+ 
  3. | Property | Value                             | 
  4. +----------+-----------------------------------+ 
  5. | path     | /dev/sdb                          | 
  6. | scsi_wwn | 360000000000000000e00000000010001 | 
  7. | type     | block                             | 
  8. +----------+-----------------------------------+ 

以上输出说明成功挂载volume到本地中,并映射为/dev/sdb。

我们安装文件系统并mount到本地:

  1. $ mkfs.ext4 /dev/sdb 
  2. mke2fs 1.42.13 (17-May-2015) 
  3. Creating filesystem with 262144 4k blocks and 65536 inodes 
  4. Filesystem UUID: 2a3fdcac-3a68-494a-830d-2bbebddaa875 
  5. Superblock backups stored on blocks: 
  6.         32768, 98304, 163840, 229376 
  7.  
  8. Allocating group tables: done 
  9. Writing inode tables: done 
  10. Creating journal (8192 blocks): done 
  11. Writing superblocks and filesystem accounting information: done 
  12.  
  13. $ mount /dev/sdb /mnt 
  14. $ ls /mnt 
  15. lost+found 

此时我们可以把volume当作本地的一个硬盘使用了。可以使用local-detach子命令从本地中卸载volume。

transfer

我们知道Glance支持通过member把一个镜像分享给其它租户,自然想到的是,Cinder能不能把其中一个volume分享给其它租户呢?很遗憾,Cinder没有member的概念,即不支持通过member把一个volume共享给其它租户。

不过Cinder支持把一个volume的所有权转移给另一个租户,这种行为称为transfer。

首先我们在admin租户下创建一个volume:

  1. cinder create --name int32bit-test-transfer 1 

此时我们在demo的租户下看不到刚刚创建的volume:

  1. $ source  openrc_demo 
  2. $ cinder list 
  3. +----+--------+------+------+-------------+----------+-------------+ 
  4. | ID | Status | Name | Size | Volume Type | Bootable | Attached to | 
  5. +----+--------+------+------+-------------+----------+-------------+ 
  6. +----+--------+------+------+-------------+----------+-------------+ 

在admin租户下创建一个transfer:

  1. $ cinder transfer-create --name test-transfer int32bit-test-transfer 
  2. +------------+--------------------------------------+ 
  3. | Property   | Value                                | 
  4. +------------+--------------------------------------+ 
  5. | auth_key   | c259b651426121fd                     | 
  6. | created_at | 2017-09-28T05:25:20.105051           | 
  7. | id         | b03c0b07-1e1c-4df3-b096-be3c66b433f7 | 
  8. name       | test-transfer                        | 
  9. | volume_id  | 093f41b1-39f9-4a01-bfb8-116baf1dbe2f | 
  10. +------------+--------------------------------------+ 

以上输出的auth_key非常重要,并且只有创建的时候会输出,之后通过API就拿不到这个auth_key了。对方就是通过这个auth_key接收转移的。此时volume的状态将变为awaiting-transfer

在demo租户下accept:

  1. $ cinder transfer-accept b03c0b07-1e1c-4df3-b096-be3c66b433f7 c259b651426121fd 
  2. +-----------+--------------------------------------+ 
  3. | Property  | Value                                | 
  4. +-----------+--------------------------------------+ 
  5. | id        | b03c0b07-1e1c-4df3-b096-be3c66b433f7 | 
  6. name      | test-transfer                        | 
  7. | volume_id | 093f41b1-39f9-4a01-bfb8-116baf1dbe2f | 
  8. +-----------+--------------------------------------+ 

其中***个参数为transfer id,第二个参数为auth_key。

我们在demo上查看volume:

  1. $ cinder list 
  2. +--------------------------------------+-----------+------------------------+------+-------------+----------+-------------+ 
  3. | ID                                   | Status    | Name                   | Size | Volume Type | Bootable | Attached to | 
  4. +--------------------------------------+-----------+------------------------+------+-------------+----------+-------------+ 
  5. | 093f41b1-39f9-4a01-bfb8-116baf1dbe2f | available | int32bit-test-transfer | 1    | lvmdriver-1 | false    |             | 
  6. +--------------------------------------+-----------+------------------------+------+-------------+----------+-------------+ 

可见该volume已经成功转接给demo租户。

需要注意的是,任何人拿到transfer_id和auth_key都可以接收转接的volume,因此注意auth_key保密。auth_key只能使用一次,完成交接后,对应的transfer实例将自动删除。

backup-export

Cinder backup可以把Cinder volume备份到远端的存储系统中,如Ceph、Swift等。但是backup的元数据怎么办呢,万一数据库记录丢失了,数据还是恢复不了。

有人可能会说,备份的时候不是会保存backup的元数据吗,为什么不用backup的元数据呢。这是因为并不是所有的备份都会在远端保存元数据,比如若cinder-volume和备份存储后端都是使用Ceph driver,则备份时直接使用rbd的import,不需要元数据,因此在备份的ceph中也不会保存元数据。

幸运的是,Cinder支持backup export,把metadata导出。

  1. $ cinder --debug backup-export fcbbfcca-b83e-4fab-acb6-7dbbd017b151 
  2.     "backup-record": { 
  3.         "backup_service""cinder.backup.drivers.swift"
  4.         "backup_url""eyJzdGF0dXM...efQ==" 
  5.     } 

以上eyJzdGF0dXM...efQ==字符串很长,为了便于排版,省略了中间一大部分。输出的backup_url是一串字符串什么用途呢,我们查看源码:

  1. def export_record(self, context, backup): 
  2. # ... 
  3. # Call driver to create backup description string 
  4. try: 
  5.    backup_service = self.service.get_backup_driver(context) 
  6.    driver_info = backup_service.export_record(backup) 
  7.    backup_url = backup.encode_record(driver_info=driver_info) 
  8.    backup_record['backup_url'] = backup_url 
  9. except Exception as err: 
  10.    msg = six.text_type(err) 
  11.    raise exception.InvalidBackup(reason=msg) 

我们从源码中发现export_record就是通过backup实例调用encode_record完成的,encode_record的作用很明显就是序列化过程,我们查看其源码:

  1. @base.remotable 
  2. def encode_record(self, **kwargs): 
  3.     """Serialize backup object, with optional extra info, into a string.""" 
  4.     # We don't want to export extra fields and we want to force lazy 
  5.     # loading, so we can't use dict(self) or self.obj_to_primitive 
  6.     record = {name: field.to_primitive(self, name, getattr(self, name)) 
  7.               for name, field in self.fields.items()} 
  8.     # We must update kwargs instead of record to ensure we don't overwrite 
  9.     # "real" data from the backup 
  10.     kwargs.update(record) 
  11.     retval = jsonutils.dump_as_bytes(kwargs) 
  12.     return base64.encode_as_text(retval) 

从源码中可以看出,首先把backup序列化为json格式,然后转化为base64,我可以验证下:

  1. $ python 
  2. Python 2.7.5 (default, Nov  6 2016, 00:28:07) 
  3. [GCC 4.8.5 20150623 (Red Hat 4.8.5-11)] on linux2 
  4. Type "help""copyright""credits" or "license" for more information. 
  5. >>> import base64 
  6. >>> base64.b64decode('eyJzdGF0dXM...fQ=='
  7. '{"status": "available", "temp_snapshot_id": null, "display_name": "2", "availability_zone": "nova", "deleted": false, "volume_id": "676ec7a5-d4ae-43d9-88cd-bd93dc143538", "restore_volume_id": null, "updated_at": "2017-08-30T05:56:47Z", "host": "devstack", "snapshot_id": null, "user_id": "a61a3c0659bd4cca8cb5f66ea2fe3df7", "service_metadata": "volume_676ec7a5-d4ae-43d9-88cd-bd93dc143538/20170830055626/az_nova_backup_fcbbfcca-b83e-4fab-acb6-7dbbd017b151", "id": "fcbbfcca-b83e-4fab-acb6-7dbbd017b151", "size": 1, "object_count": 22, "deleted_at": null, "container": "cinder-backup", "service": "cinder.backup.drivers.swift", "driver_info": {}, "created_at": "2017-08-30T05:56:23Z", "disk_size": 3444122, "display_description": "", "data_timestamp": "2017-08-30T05:56:23Z", "parent_id": null, "num_dependent_backups": 0, "fail_reason": null, "project_id": "42ee53fa480f49149ce5c3df4a953a6b", "temp_volume_id": null}' 

下面我们从数据库中删除该backup记录:

  1. MariaDB [cinder]> delete from backups where id='fcbbfcca-b83e-4fab-acb6-7dbbd017b151'
  2. Query OK, 1 row affected (0.00 sec) 

此时Cinder已经找不到该backup记录了:

  1. $ cinder backup-show fcbbfcca-b83e-4fab-acb6-7dbbd017b151 
  2. ERROR: No volumebackup with a name or ID of 'fcbbfcca-b83e-4fab-acb6-7dbbd017b151' exists. 

接下来我们使用backup-import恢复记录:

  1. $ cinder backup-import cinder.backup.drivers.swift eyJzdGF0dXM...efQ== 
  2. +------------+--------------------------------------+ 
  3. |  Property  |                Value                 | 
  4. +------------+--------------------------------------+ 
  5. |     id     | fcbbfcca-b83e-4fab-acb6-7dbbd017b151 | 
  6. |    name    |                 None                 | 
  7. | parent_id  |                 None                 | 
  8. | project_id |   42ee53fa480f49149ce5c3df4a953a6b   | 
  9. +------------+--------------------------------------+ 

backup记录成功恢复:

  1. $ cinder backup-show fcbbfcca-b83e-4fab-acb6-7dbbd017b151 
  2. +-----------------------+--------------------------------------+ 
  3. |        Property       |                Value                 | 
  4. +-----------------------+--------------------------------------+ 
  5. |   availability_zone   |                 nova                 | 
  6. |       container       |            cinder-backup             | 
  7. |       created_at      |      2017-08-30T05:56:23.000000      | 
  8. |     data_timestamp    |      2017-08-30T05:56:23.000000      | 
  9. |      description      |                                      | 
  10. |       disk_size       |               3444122                | 
  11. |      fail_reason      |                                      | 
  12. | has_dependent_backups |                False                 | 
  13. |           id          | fcbbfcca-b83e-4fab-acb6-7dbbd017b151 | 
  14. |     is_incremental    |                False                 | 
  15. |          name         |                  2                   | 
  16. |      object_count     |                  22                  | 
  17. |       parent_id       |                 None                 | 
  18. |       project_id      |   42ee53fa480f49149ce5c3df4a953a6b   | 
  19. |          size         |                  1                   | 
  20. |      snapshot_id      |                 None                 | 
  21. |         status        |              available               | 
  22. |       updated_at      |      2017-08-30T05:56:47.000000      | 
  23. |       volume_id       | 676ec7a5-d4ae-43d9-88cd-bd93dc143538 | 
  24. +-----------------------+--------------------------------------+ 

总结

以上我们介绍了OpenStack的一些非常有用的操作,主要包括如下:

  • glance member
  • glance task
  • nova lock
  • nova shelve
  • nova rescue
  • cinder manage
  • cinder local-attach
  • cinder backup-export
  • cinder transfer

以后发现有新的有意思的操作,再补充。

【本文是51CTO专栏作者“付广平”的原创文章,如需转载请通过51CTO获得联系】

戳这里,看该作者更多好文

责任编辑:武晓燕 来源: 51CTO专栏
相关推荐

2022-08-23 09:01:02

HTMLWeb

2018-08-11 05:39:33

网络故障网络连接网线

2013-10-29 09:24:47

Linux命令Shell脚本

2023-08-02 16:14:04

2010-06-24 16:18:49

Linux Chatt

2019-10-18 09:25:45

Python苹果公司算法

2015-10-27 11:02:06

Web开发CSS 库

2014-06-13 11:26:53

CSS库Web开发

2023-03-06 10:42:34

CSS前端

2015-06-08 10:31:36

工资高程序员炫富

2016-03-07 10:23:24

工资高程序员炫富

2013-07-12 09:45:16

PHP功能

2020-08-16 08:59:23

HTML标签开发

2021-09-04 15:42:17

GitHub面试程序员

2021-06-29 10:50:30

Python函数文件

2023-09-07 16:28:46

JavaScrip

2013-08-23 09:28:37

GitGit 命令

2013-08-15 09:52:45

开发框架开发工具开发脚本

2009-06-05 09:12:41

Windows 7微软操作系统

2011-08-19 10:38:07

Linus TorvaARM
点赞
收藏

51CTO技术栈公众号