
Andrey
23.11.2017
14:03:14
У меня по факту сейчас есть только в ps -ef | grep kvm список виртуалок. Вроде в процессе даже указаны все конфиги. Чисто визуально прям все параметры которые были прописаны
не могу ли я из аргументов процессов конфиги ручками собрать?

Dan
23.11.2017
14:09:38
можно. поркс все еще не пользует либвирт, да?

Google

Юдин Иван [зцрб]
23.11.2017
14:10:38
если виртуалки у тебя на присоединенном проксе (на том котором все пропало) есть... тебе надо их вручную остановить и перенести.. вместе с конфигами...
затем уже из веб морды создать на нужном сервер виртуалку, и закинуть туда ту виртуалку.. подкорректировав конфиг


Andrey
23.11.2017
14:11:52
Сами процессы выглядят примерно так:
/usr/bin/kvm -id 216 -chardev socket,id=qmp,path=/var/run/qemu-server/216.qmp,server,nowait -mon chardev=qmp,mode=control -pidfile /var/run/qemu-server/216.pid -daemonize -smbios type=1,uuid=16341b21-b8b1-45e6-b377-a29655c7323f -name meetup-bot -smp 4,sockets=2,cores=2,maxcpus=4 -nodefaults -boot menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg -vga std -vnc unix:/var/run/qemu-server/216.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 2048 -k en-us -device pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f -device pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e -device piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2 -device usb-tablet,id=tablet,bus=uhci.0,port=1 -device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3 -iscsi initiator-name=iqn.1993-08.org.debian:01:a6241ab6e58 -drive file=/var/lib/vz/template/iso/ubuntu-16.04.2-server-amd64.iso,if=none,id=drive-ide2,media=cdrom,aio=threads -device ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200 -device virtio-scsi-pci,id=scsihw0,bus=pci.0,addr=0x5 -drive file=/dev/pve-ssd/vm-216-disk-1,if=none,id=drive-scsi0,format=raw,cache=none,aio=native,detect-zeroes=on -device scsi-hd,bus=scsihw0.0,channel=0,scsi-id=0,lun=0,drive=drive-scsi0,id=scsi0,bootindex=100 -netdev type=tap,id=net0,ifname=tap216i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on -device virtio-net-pci,mac=16:18:AE:42:9B:A8,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300


Юдин Иван [зцрб]
23.11.2017
14:13:38
var/lib/vz/images/ виртуальные машины
etc/pve/qemu-server файлы конфигурации
вроде так раньше было...

Andrey
23.11.2017
14:14:17
Черт, пусто и там и там

Юдин Иван [зцрб]
23.11.2017
14:14:54
хотят утебя 5 ка...могу наврать

Dan
23.11.2017
14:20:20
я не знаю точно что где в проксе, но по cmdline разобрать как настроена VM вполне реально.

Юдин Иван [зцрб]
23.11.2017
14:21:11

Andrey
23.11.2017
14:21:37
ептыть, оно похоже и настроки zfs вычистило
could not activate storage 'local-zfs', zfs error: cannot import 'rpool': no such pool available (500)

Google

Alibek
23.11.2017
14:30:47
Есть тут кто использует oracle zs3 или zs5 или zs7 в плане экспорта томов по fc?

Юдин Иван [зцрб]
23.11.2017
14:33:54

Andrey
23.11.2017
14:35:04
О, нашелся бекап некой sql базы прокса
А что за база у прокса? Sqlite?
Там просто огромные портянки какого то blob поля
Да, это был sqlite дамп
В нем есть все конфиги и настройки
теперь вопрос, как бы это все подсунуть проксу, чтобы он не убил текущие вирты?
особенно интересно storage.cfg

Roman
23.11.2017
15:40:54
file=/dev/pve-ssd/vm-216-disk-1 это ZFS было?
вообще из командной строки вполне реально собрать новый конфиг файл, там праметров то не много, строк 10-15

Andrey
23.11.2017
15:42:11
lvm: local-fast
vgname pve-ssd
shared 0
content rootdir,images
это было lvm

Roman
23.11.2017
15:42:22
а сейчас оно в проксе есть?

Andrey
23.11.2017
15:42:26
Неа

Roman
23.11.2017
15:42:31
ну это добавить можно

Andrey
23.11.2017
15:42:42
Я так понял, первая нода кластера прислала свой storage.cfg
Я нашел оригинальный, в дампе sqlite

Roman
23.11.2017
15:42:59
первая нода прислала все свое )
а сколько машин то?

Andrey
23.11.2017
15:43:39

Google

Andrey
23.11.2017
15:44:02

Roman
23.11.2017
15:44:35
а может она ниче особо и не прислал, потому что локальное хранилище никуда не отправляется.
вполне возможно что при добавлении в кластер просто все конфиги почистились.

Andrey
23.11.2017
15:44:39
я из дампа судя по всему могу даже конфиги вытащить
пздц, это ж кто так придумал

Roman
23.11.2017
15:45:45
ну в доках сказано - что при добавлении в кластер, на ноде не должно быть ничего запущено
так что тут вины разрабов нет )
ну короче надо вернуть стораджи и конфиги
если конфиги вытаскиваются из бд - это легче, чем ручками их собирать их командной строки
про конфиг ZFS ничего не могу подсказать, не использовал

Andrey
23.11.2017
15:48:46
афигеть
сейчас добавил во вторую ноду старый конфиг storage.cfg
А он зараза поменял его на обоих серверах
еще такой вопрос
root@prox2:/etc/pve# qm status 206
Configuration file 'nodes/prox2/qemu-server/206.conf' does not exist
А где искать директорию nodes/prox2/qemu-server/

Roman
23.11.2017
17:29:54

Andrey
23.11.2017
17:30:50

Roman
23.11.2017
17:31:40
да просто локальный сторадж использовать :)

Andrey
23.11.2017
17:52:55

Artem
23.11.2017
18:21:00
любая кластерная ФС

Google

Artem
23.11.2017
18:21:24
но для профита лучше всего 3 хоста использовать

Andrey
23.11.2017
18:31:07
gluster fs
Т.е. поднимать на каждом хосте gluster-server?
или прокс сам умеет?

Artem
23.11.2017
19:18:32
на счет прокса не знаю

Stanislav
24.11.2017
02:02:52
товарищи, а кто-нибудь GRE over IPSec на хосте проксмокса настраивал? У вас все в порядке со скоростью между эндпоинтами было?

Roman
24.11.2017
02:58:55

Stanislav
24.11.2017
02:59:35
хм, странно, а у меня просто IPSec хорошо, просто GRE хорошо, GRE over IPSec - 800 кбит/с

Марк ☢
24.11.2017
03:00:08

Roman
24.11.2017
03:00:32
да я тоже так подумал, но чтоб 800кбит...
у меня 700-800Мбит примерно так.

Stanislav
24.11.2017
03:01:15
Mtu
никоим образом, уже и 1200 пробовал, все равно хрень какая-то со скоростью

Roman
24.11.2017
03:03:27
а какой демон IPsec? Хотя это больше из интереса :)

Stanislav
24.11.2017
03:05:00
а без разницы
strongswan и racoon показывают один результат
и я бы поверил в шейпинг IPSec или GRE на стороне провайдера, если бы просто IPSec и просто GRE не выдавали максимальную скорость :)

Александр
24.11.2017
03:16:52
А как замер идет?
Работой приложения или тесты какие-то

Stanislav
24.11.2017
03:17:26
iperf3 же

Александр
24.11.2017
03:19:21
Эм

Google

Александр
24.11.2017
03:19:47
У нас как-то тоже была проблема но там сменой перфа решилось
Те компилом
Там фря правда была

Stanislav
24.11.2017
03:29:00
iperf3 на хосте отрабатывал хорошо по только IPSec или только GRE, то есть смена ничего не дала бы. Да и scp тоже скорость показывал таксебе. В итоге сейчас потестил фряху в виртуалке - справляется на ура. Буду делать виртуалку с роутером на фряхе :D

Александр
24.11.2017
03:34:52
))))))

Artem
24.11.2017
10:02:41
как грохнуть виртаулку на ovirt если она на миграции повисла ?

Александр
24.11.2017
10:04:52
В отображение интерфейса?

Artem
24.11.2017
10:58:25
да

Александр
24.11.2017
12:09:52
через базу данных
Поищу в канале тут, я искал уже как-то

Stanislav
24.11.2017
13:10:56
надо снять таску через консоль
а если таски нет, то грохнуть по айди
ща
на spm посмотри через vdsClient таску этой миграции

Александр
24.11.2017
13:12:47
Для отмены задач в oVirt:
залогиниться на хосте SPM, узнать <TaskID>
# vdsClient -s 0 getAllTasksStatuses
Я так понимаю, он должен тут выдать id тасков

Dan
24.11.2017
13:31:57
Процесс машины на обоих хостах есть? А то таск убьешь а destination в паузе останется

Artem
24.11.2017
14:00:40
да через бд грохнул уже
суть в том что тачка выключена была уже
а бошка видит как запущщеную вм и в процесее migratin to

Dan
24.11.2017
14:03:31
Если и src и dst не включены иногда проще тупо рестартануть vdsmd а заодно и engine