@pro_kvm

Страница 251 из 521
Andrey
23.11.2017
14:03:14
У меня по факту сейчас есть только в ps -ef | grep kvm список виртуалок. Вроде в процессе даже указаны все конфиги. Чисто визуально прям все параметры которые были прописаны

не могу ли я из аргументов процессов конфиги ручками собрать?

Dan
23.11.2017
14:09:38
можно. поркс все еще не пользует либвирт, да?

Google
Юдин Иван [зцрб]
23.11.2017
14:10:38
если виртуалки у тебя на присоединенном проксе (на том котором все пропало) есть... тебе надо их вручную остановить и перенести.. вместе с конфигами... затем уже из веб морды создать на нужном сервер виртуалку, и закинуть туда ту виртуалку.. подкорректировав конфиг

Andrey
23.11.2017
14:11:52
если виртуалки у тебя на присоединенном проксе (на том котором все пропало) есть... тебе надо их вручную остановить и перенести.. вместе с конфигами... затем уже из веб морды создать на нужном сервер виртуалку, и закинуть туда ту виртуалку.. подкорректировав конфиг
Вирты пропали из вебморды сервера который я присоединил, верно. Сами вирты запущены и работают. Но в вебморде не видны. А где у них конфиги лежат? Случайно не в /etc/pve/qemu-server/ ? Если там, то там пусто

можно. поркс все еще не пользует либвирт, да?
хз если честно. процесс зовется /usr/bin/kvm

Сами процессы выглядят примерно так: /usr/bin/kvm -id 216 -chardev socket,id=qmp,path=/var/run/qemu-server/216.qmp,server,nowait -mon chardev=qmp,mode=control -pidfile /var/run/qemu-server/216.pid -daemonize -smbios type=1,uuid=16341b21-b8b1-45e6-b377-a29655c7323f -name meetup-bot -smp 4,sockets=2,cores=2,maxcpus=4 -nodefaults -boot menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg -vga std -vnc unix:/var/run/qemu-server/216.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 2048 -k en-us -device pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f -device pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e -device piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2 -device usb-tablet,id=tablet,bus=uhci.0,port=1 -device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3 -iscsi initiator-name=iqn.1993-08.org.debian:01:a6241ab6e58 -drive file=/var/lib/vz/template/iso/ubuntu-16.04.2-server-amd64.iso,if=none,id=drive-ide2,media=cdrom,aio=threads -device ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200 -device virtio-scsi-pci,id=scsihw0,bus=pci.0,addr=0x5 -drive file=/dev/pve-ssd/vm-216-disk-1,if=none,id=drive-scsi0,format=raw,cache=none,aio=native,detect-zeroes=on -device scsi-hd,bus=scsihw0.0,channel=0,scsi-id=0,lun=0,drive=drive-scsi0,id=scsi0,bootindex=100 -netdev type=tap,id=net0,ifname=tap216i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on -device virtio-net-pci,mac=16:18:AE:42:9B:A8,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300

Юдин Иван [зцрб]
23.11.2017
14:13:38
var/lib/vz/images/ виртуальные машины etc/pve/qemu-server файлы конфигурации

вроде так раньше было...

Andrey
23.11.2017
14:14:17
Черт, пусто и там и там

Юдин Иван [зцрб]
23.11.2017
14:14:54
хотят утебя 5 ка...могу наврать

Dan
23.11.2017
14:20:20
я не знаю точно что где в проксе, но по cmdline разобрать как настроена VM вполне реально.

Юдин Иван [зцрб]
23.11.2017
14:21:11
Черт, пусто и там и там
а сторадж локальный у тебя собственно точно на этой машине??

Andrey
23.11.2017
14:21:37
а сторадж локальный у тебя собственно точно на этой машине??
Да, на обоих серверах сторедж для виртуалок локальный

ептыть, оно похоже и настроки zfs вычистило

could not activate storage 'local-zfs', zfs error: cannot import 'rpool': no such pool available (500)

Google
Alibek
23.11.2017
14:30:47
Есть тут кто использует oracle zs3 или zs5 или zs7 в плане экспорта томов по fc?

Юдин Иван [зцрб]
23.11.2017
14:33:54
ептыть, оно похоже и настроки zfs вычистило
могу ошибатсо , но в случае zfs виртуалки в других местах лежат...

Andrey
23.11.2017
14:35:04
О, нашелся бекап некой sql базы прокса

А что за база у прокса? Sqlite?

Там просто огромные портянки какого то blob поля

Да, это был sqlite дамп

В нем есть все конфиги и настройки

теперь вопрос, как бы это все подсунуть проксу, чтобы он не убил текущие вирты?

особенно интересно storage.cfg

Roman
23.11.2017
15:40:54
file=/dev/pve-ssd/vm-216-disk-1 это ZFS было?

вообще из командной строки вполне реально собрать новый конфиг файл, там праметров то не много, строк 10-15

Andrey
23.11.2017
15:42:11
lvm: local-fast vgname pve-ssd shared 0 content rootdir,images это было lvm

Roman
23.11.2017
15:42:22
а сейчас оно в проксе есть?

Andrey
23.11.2017
15:42:26
Неа

Roman
23.11.2017
15:42:31
ну это добавить можно

Andrey
23.11.2017
15:42:42
Я так понял, первая нода кластера прислала свой storage.cfg

Я нашел оригинальный, в дампе sqlite

Roman
23.11.2017
15:42:59
первая нода прислала все свое )

а сколько машин то?

Andrey
23.11.2017
15:43:39
первая нода прислала все свое )
чорт, зря я это непотестил. Дело в том что у меня сервера разные. В частности дисков разное количество и размеры

Google
Andrey
23.11.2017
15:44:02
Roman
23.11.2017
15:44:35
а может она ниче особо и не прислал, потому что локальное хранилище никуда не отправляется. вполне возможно что при добавлении в кластер просто все конфиги почистились.

Andrey
23.11.2017
15:44:39
я из дампа судя по всему могу даже конфиги вытащить

пздц, это ж кто так придумал

Roman
23.11.2017
15:45:45
ну в доках сказано - что при добавлении в кластер, на ноде не должно быть ничего запущено

так что тут вины разрабов нет )

ну короче надо вернуть стораджи и конфиги

если конфиги вытаскиваются из бд - это легче, чем ручками их собирать их командной строки

про конфиг ZFS ничего не могу подсказать, не использовал

Andrey
23.11.2017
15:48:46
афигеть

сейчас добавил во вторую ноду старый конфиг storage.cfg

А он зараза поменял его на обоих серверах

еще такой вопрос root@prox2:/etc/pve# qm status 206 Configuration file 'nodes/prox2/qemu-server/206.conf' does not exist А где искать директорию nodes/prox2/qemu-server/

Roman
23.11.2017
17:29:54
А он зараза поменял его на обоих серверах
для этого и существет кластер...

Andrey
23.11.2017
17:30:50
для этого и существет кластер...
А есть вариант работы в кластере но без общего стораджа?

Roman
23.11.2017
17:31:40
да просто локальный сторадж использовать :)

Andrey
23.11.2017
17:52:55
да просто локальный сторадж использовать :)
Надоедает ходить в разные вебморды и миграций хочется

Artem
23.11.2017
18:21:00
любая кластерная ФС

Google
Artem
23.11.2017
18:21:24
но для профита лучше всего 3 хоста использовать

Andrey
23.11.2017
18:31:07
gluster fs
Т.е. поднимать на каждом хосте gluster-server?

или прокс сам умеет?

Artem
23.11.2017
19:18:32
на счет прокса не знаю

или прокс сам умеет?
по идее должен из коробки идти

Stanislav
24.11.2017
02:02:52
товарищи, а кто-нибудь GRE over IPSec на хосте проксмокса настраивал? У вас все в порядке со скоростью между эндпоинтами было?

Stanislav
24.11.2017
02:59:35
хм, странно, а у меня просто IPSec хорошо, просто GRE хорошо, GRE over IPSec - 800 кбит/с

Roman
24.11.2017
03:00:32
да я тоже так подумал, но чтоб 800кбит...

у меня 700-800Мбит примерно так.

Stanislav
24.11.2017
03:01:15
Mtu
никоим образом, уже и 1200 пробовал, все равно хрень какая-то со скоростью

Roman
24.11.2017
03:03:27
а какой демон IPsec? Хотя это больше из интереса :)

Stanislav
24.11.2017
03:05:00
а без разницы

strongswan и racoon показывают один результат

и я бы поверил в шейпинг IPSec или GRE на стороне провайдера, если бы просто IPSec и просто GRE не выдавали максимальную скорость :)

Александр
24.11.2017
03:16:52
А как замер идет?

Работой приложения или тесты какие-то

Stanislav
24.11.2017
03:17:26
iperf3 же

Александр
24.11.2017
03:19:21
Эм

Google
Александр
24.11.2017
03:19:47
У нас как-то тоже была проблема но там сменой перфа решилось

Те компилом

Там фря правда была

Stanislav
24.11.2017
03:29:00
iperf3 на хосте отрабатывал хорошо по только IPSec или только GRE, то есть смена ничего не дала бы. Да и scp тоже скорость показывал таксебе. В итоге сейчас потестил фряху в виртуалке - справляется на ура. Буду делать виртуалку с роутером на фряхе :D

Александр
24.11.2017
03:34:52
))))))

Artem
24.11.2017
10:02:41
как грохнуть виртаулку на ovirt если она на миграции повисла ?

Александр
24.11.2017
10:04:52
В отображение интерфейса?

Artem
24.11.2017
10:58:25
да

Александр
24.11.2017
12:09:52
через базу данных

Поищу в канале тут, я искал уже как-то

Stanislav
24.11.2017
13:10:56
надо снять таску через консоль

а если таски нет, то грохнуть по айди

ща

на spm посмотри через vdsClient таску этой миграции

Александр
24.11.2017
13:12:47
Для отмены задач в oVirt: залогиниться на хосте SPM, узнать <TaskID> # vdsClient -s 0 getAllTasksStatuses Я так понимаю, он должен тут выдать id тасков

Dan
24.11.2017
13:31:57
Процесс машины на обоих хостах есть? А то таск убьешь а destination в паузе останется

Artem
24.11.2017
14:00:40
да через бд грохнул уже

суть в том что тачка выключена была уже

а бошка видит как запущщеную вм и в процесее migratin to

Dan
24.11.2017
14:03:31
Если и src и dst не включены иногда проще тупо рестартануть vdsmd а заодно и engine

Страница 251 из 521