Dmitry
https://docs.openstack.org/ha-guide/storage-ha-backend.html
Georgii
получается что эфимерным стореджем рулит nova, а постоянным cinder ?
Dmitry
если есть сеф - не запаривайтесь и в качестве корня отдавайте рута с эфемерок на сефе (куча статей, как это сделать), доп диски с синдера
Georgii
NS 🇷🇺
NS 🇷🇺
Щас вот он не запаратится, наклепает кучу, а потом решит пересоздать парочку и обнаружит что убил все свои рутовые диски при удалении ВМ
Dmitry
Georgii
NS 🇷🇺
да суть именно в этом. Но кмк эфимерок надо стараться избегать, особенно если у вас публичное облако
NS 🇷🇺
Georgii
что такое "кмк" ?
NS 🇷🇺
Ruslan
Каждая эфемерка занимает место на узле компьют?
Ruslan
Или там линкуется образ и в снимок пишется?
Georgii
NS 🇷🇺
Georgii
Dmitry
NS 🇷🇺
Georgii
Georgii
ну и + бэкап
Georgii
Dmitry
Dmitry
снапшот с машины - льется в глянец
Georgii
снапшот с машины - льется в глянец
гм, но если я удалил волум - снапшот уже работать не будет как я понимаю. Тогда для клинетов эфимерка плохо , так получается что бэкап не организовать
Dmitry
Georgii
Georgii
Вопрос к тем кто не использует эфимерок - бы снепшоты не используете ? Или оспользуете с костылями для восстановления ?
Georgii
И ещё - как понять vm эфимерка или нет ? Запросить у синдера список волумов - и если там его нет - то он эфимерный ?
NS 🇷🇺
NS 🇷🇺
Самый верный способ select nova.device_type from block_device_mapping where instance_uuid='XXX';
Georgii
Что то я не понял - судя по дукументации как только я пропишу
[libvirt]
virt_type=kvm
disk_cachemodes=network=writeback
images_type = rbd
images_rbd_pool = openstack-images
images_rbd_ceph_conf = /etc/ceph/ceph.conf
rbd_user = cinder
rbd_secret_uuid = 30c3a46
live_migration_flag="VIR_MIGRATE_UNDEFINE_SOURCE,VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,VIR_MIGRATE_PERSIST_DEST"
inject_password = false
inject_key = false
inject_partition = -2
Диски сразу в эфимерки пойдут ?
Georgii
или ещё
nova aggregate-create ephemeral-compute-storage
nova aggregate-add-host ephemeral-compute-storage compute01
NS 🇷🇺
нет, не пойдут
NS 🇷🇺
live_migration_flag="VIR_MIGRATE_UNDEFINE_SOURCE,VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,VIR_MIGRATE_PERSIST_DEST" - это вроде деприкейт в пайке
Georgii
нет, не пойдут
То есть надо указать для nova flavor-key m1.ceph-compute-storage set aggregate_instance_extra_specs:cephcomputestorage=true
Georgii
на уровне флавора ?
Georgii
NS 🇷🇺
нет, при создании вм из хорайзона там чекбоксик переключить надо
Georgii
удалялять илм нет vm
Georgii
это ?
NS 🇷🇺
а из кли, вы либо уже из диска создаете либо из образа
NS 🇷🇺
нет
NS 🇷🇺
создать диск или не создать
NS 🇷🇺
если выбрать не создавать будет эфимер, по умолчанию стоит создавать
NS 🇷🇺
если создаете из имиджа это и есть ключ =)
Georgii
NS 🇷🇺
http://i.imgur.com/w4lJ54w.png если выбрать что в квадрате будет эфимерка, если в овале - синдер
Georgii
Georgii
Виртуалку создал эфимерную.
Вопрос - а если под неё никакой имедж не создаётся на , где виртуалка хранит данные *? 😯
Georgii
делаю для неё спепшот - вижу в imahges его со статусом - Queued. А потом он изчезает чудесным образом. Девид Блейн какойто
NS 🇷🇺
Georgii
NS 🇷🇺
Georgii
NS 🇷🇺
virsh domblklist instance с компута на котором вм покажет че и где
Me
А вот вопрос
Есть ОПС с ceph
Появилась ещё одна площадка
Как там спинить ВМ с локальным сторажем ?
Me
Боюсь что не вытянет сеть задержки
Georgii
Информация, может кому пригодится из новичков - для снятия снепшотов эфимеров из ceph для glance нужно указать show_multiple_locations = True
Fox
Эфимеры же не могут быть в цеф?!
Fox
Я что-то совсем запутался
Georgii
Georgii
да. и на nfs по идеем могут
Georgii
да, и для информации, ребилд инстанса работает на эфимерках и ceph, в отличие от простых волумов
Fox
Надо стенд короче
Georgii
Я правильно понеимаю что если эфимерку заребилдить на основании имеджа (снепшота), то потом этот имедж уже нельзя удалить ?
Georgii
Эфимеры же не могут быть в цеф?!
Полный список где могут быть эфимеры:
iSCSI LUN mapped to a compute host paired with LVM
Ceph RBD
Sheepdog
GlusterFS
NFS
Georgii
Вопрос по бекапу vm , может кто поделится опытов - куда лушче лить, в другой пул ceph или в s3 ?