Pavel
да сам ironic сказал ok
Dmitry
Эммммм. Ну ок так ок? :D
Dmitry
Можешь мне скинуть релевантный кусок логов? От начала до конца деплоя?
Pavel
ща
Pavel
нужно все или только ipa?
J
Dmitry
Из своего железа
Pavel
скинул. там все попытки за cегодня с 8 и 7 ipa
Dmitry
Так, отлично. Это образ убунты, да? У них походу раздел ESP не помечен как ESP..
Pavel
- local_loop:
name: image0
size: 238GB
- partitioning:
base: image0
label: gpt
partitions:
- name: ESP
type: 'EF00'
size: 512MiB
mkfs:
type: vfat
mount:
mount_point: /boot/efi
fstab:
options: "defaults"
fsck-passno: 1
- name: boot
size: 512MiB
type: 'EF02'
mkfs:
type: ext4
mount:
mount_point: /boot
fstab:
options: "defaults"
fsck-passno: 1
- name: lvm_data
type: '8e00'
size: 100%
Pavel
если его не поментить то вообще жопа будет
Pavel
да бубунта
Dmitry
Ага, это твой образ? Я не знаю как, но надо для него флаг 'esp' поставить.
Dmitry
А ещё я думал, что еду кукухой, но нет, мы действительно игнирируем ошибки при попытке установить grub для whole disk images.
Pavel
да мой. вот выше флаг стоит
Pavel
type: 'EF00'
Dmitry
ага. так, понятно, на GPT boot == esp. Ща запилю патч.
J
Из своего железа
Надеюсь, не мешаю)
А в каком железе кроме собственных серверов и материнских плат они могут всех заставить использовать uefi вместо обычного bios boot?
Dmitry
Во всём, где есть их чипсеты, подозреваю
J
Во всём, где есть их чипсеты, подозреваю
А как это техническими средствами сделать?
Я не представляю. Разве что опять, как у них принято. Тому на лапу дать этого запугать чтоб не использовали биосы с возможностью обычной загрузки...
Dmitry
Так, патч есть https://review.opendev.org/#/c/720184/
Pavel
Да
Dmitry
Проблему с токеном и старым ironic воспроизвёл, буду вдуплять
Dmitry
окей, это ОЧЕНЬ тупо. исправлю.
J
Слушайте, ребята, а раз про ironic сегодня)
disk_erase_concurrency в ironic.conf не влияет на количество одновременно запускаемых ATA Secure Erase?
Щас запустил очистку на сервере с кучей 8Тб дисков и вижу что агент собрался их по одному затирать, похоже.
У меня нету лишней недельки чтоб ждать)
J
Хм, по коду должно учитываться значение этого параметра.
Pavel
я не чищу. я даже отключил у себя очистку. мне долго чистить. да и диск у меня один
Pavel
у меня все на FC
J
у меня все на FC
И данные клиентов никто не затирает)
Ни shred ни ata secure erase Ни dd. Так что ли?)
Pavel
они на полке отдельной лежат это не моя задача пока
Andrey
Dmitry
Dmitry
ммм, да, я об этом не подумал
J
ммм, да, я об этом не подумал
Мало того, неприятная хренотень в том что если пароль на диске не стоит, то агент, как я щас мельком увидел, чо-то там хуевертит и ставит пустой пароль.
Логичнее в этом случае сразу переходить к shred, мне кажется.
George
George
Dmitry
[deploy]enable_ata_secure_erase=False тогда? :)
J
Jain
Хорошо вам диски можете тереть и дальше кастомерам отдавать. Нам все ссд и нвме диски уничтожать с сертификатом приходиться. Даже в тихую стащить нельзя :(
J
Jain
Тоже. Они ещё раз в год в ДЦ приходят. Гладят свои сервера ...
Jain
Кто видел как сжигают 200кг 6.4тб нвме диски. В цирке больше не смеётся
Dmitry
Я уже в цирке не смеюсь, можно мне видео? :)
J
Хотя, всякие безопасники больные ж на голову.
Я всякие истории слышу про них)
Jain
Давычто. Их так охраняли какбудтобы там блупринты звёзды смерти были. Видео там где-то есть. Но точно не для техников.
Jain
Те сервера откуда их вытаскивали даже доступа в сеть не имеют. Они свой кабель в ДЦ проложили. :)
J
J
Jain
Через оптоволокно немного сложно не будет без прорыва кабеля. Ну хз. Как бы а каждом кастомере беспокоиться это дорога прямиком в бутыль.
J
Aleksey
Андрей Федюнин
народ, нид хэлп. создаю тачку через heat, дальше докидываю через него же вольюм, и либвирт очень странно отрабатывает, почему то детачит второй вольюм
2020-04-16 09:12:47.569+0000: 373538: info : qemuMonitorIOWrite:551 : QEMU_MONITOR_IO_WRITE: mon=0x7f738c014960 buf={"execute":"__com.redhat_drive_add","arguments":{"file":"rbd:pool_name/volume-XXXXXXXX:id=pool_name:auth_supported=cephx\\;none:mon_host=mon_ip1\\;mon_ip2\\;mon_ip3","file.password-secret":"virtio-disk1-secret0","format":"raw","id":"drive-virtio-disk1","serial":"XXXXXXXXX","cache":"none","discard":"unmap","throttling.iops-total":"300"},"id":"libvirt-25"} len=477 ret=477 errno=0
2020-04-16 09:12:47.611+0000: 373538: info : qemuMonitorJSONIOProcessLine:217 : QEMU_MONITOR_RECV_REPLY: mon=0x7f738c014960 reply={"return": {}, "id": "libvirt-25"}
2020-04-16 09:12:47.611+0000: 373570: info : qemuMonitorSend:1083 : QEMU_MONITOR_SEND_MSG: mon=0x7f738c014960 msg={"execute":"device_add","arguments":{"driver":"virtio-blk-pci","scsi":"off","bus":"pci.6","addr":"0x0","drive":"drive-virtio-disk1","id":"virtio-disk1","write-cache":"on"},"id":"libvirt-26"} fd=-1
2020-04-16 09:12:47.619+0000: 373538: info : qemuMonitorJSONIOProcessLine:217 : QEMU_MONITOR_RECV_REPLY: mon=0x7f738c014960 reply={"return": {}, "id": "libvirt-26"}
020-04-16 09:12:57.224+0000: 373538: info : qemuMonitorIOWrite:551 : QEMU_MONITOR_IO_WRITE: mon=0x7f738c014960 buf={"execute":"__com.redhat_drive_del","arguments":{"id":"drive-virtio-disk1"},"id":"libvirt-28"} len=96 ret=96 errno=0
в логах новы есть только действие по аттачу, не пойму откуда на детач прилетает команда. После хард ребута все работает норм оба вольюма подключены. релиз queens (kolla)
Anton
Подскажите, пожалуйста по вопросу:
https://qna.habr.com/q/752197
Stanislav
Aleksey
Stanislav
Aleksey
Aleksey
но опять же тут вопрос, та же ошибка у тебя?
Aleksey
метаданные вообще с ВМ доступны?
Stanislav
и если перегрузит инстанс то все работает
Stanislav
так же если флотинг подключать то будет сразу работать
Aleksey
посмотри вывод консольных логов, у него получается сходить на 169.254 ?
George
George