
Shamil
08.12.2017
17:06:37

Dan
08.12.2017
17:07:05
нет, там без потерь вообще (помимо стандартных милисекунд при живой миграции)

Shamil
08.12.2017
17:08:12
Век живи, век учись.

Dan
08.12.2017
17:08:52
когда я писал этот код, я просто вместо того чтоб цеплять функцию к vm, собирал все функции в пул, давал vm мак, и цеплял к пулу. При миграции машина просто брала себе функцию из пула на новом хосте, и цепляла на нее тот же мак. А дальше обычная миграция - синхронизация памяти и переброс

Google

Dan
08.12.2017
17:09:48
https://www.ovirt.org/develop/developer-guide/vdsm/hook/vmfex/
но с тех пор там все переписали погламурнее, я ведь не программист, просто надо было решение быстро навелосипедить

Shamil
08.12.2017
17:12:03
В нашем деле часто так: писать свое, или искать где уже написано, или костылять.

Dan
08.12.2017
17:14:20
Этот костыль в 2010-ом принес фирме семизначный доход, и с тех пор каждый год приносит не меньше :) Тогда просто времени ждать не было, клиент без этого не мог начать работать

terry
09.12.2017
08:17:53
Добрый день. Ребята, чего я не выкупаю?
типа я нарезал виртуалок, lvm которых в будущем при полном заполнении уже 1,81 Тб ?

Andrey
09.12.2017
19:12:33

terry
09.12.2017
19:13:33
Да, это lvm-thin
при этом я создал + 2 виртуалки и данные на первом скрине не поменялись
такое чуство, что там какая-то срань получилась
это я просто проапдейтил proxmox и саму систему
с 5,0,32 до 5.1-38

Google

Konstantin
09.12.2017
19:19:20
с 5,0,32 до 5.1-38
Он всегда thin так показывает и zfs, точнее показывает сколько занято на деле

Александр
10.12.2017
08:58:55

Sergey
10.12.2017
11:26:24
хохлам написала, что им... Ж)

terry
10.12.2017
11:33:07
или что это?

Sergey
10.12.2017
11:34:05
iлi

KitKat
10.12.2017
12:00:29

s3rj1k
10.12.2017
14:02:14
а bsod будет если извлечь?

KitKat
10.12.2017
14:03:48
Отвалится виртуальная железка если извлечь диск то скорее всего
Притом без разницы какие у тебя права

s3rj1k
10.12.2017
14:04:27

KitKat
10.12.2017
14:05:26
Ничего не произойдет , Это же просто передача инфы в ноду
Но это не точно )

s3rj1k
10.12.2017
14:07:17

KitKat
10.12.2017
14:08:02
Balloon, нужно как службу запускать , иначе это не работает

s3rj1k
10.12.2017
15:59:55

KitKat
10.12.2017
16:01:28
Это да ) с этим проблем не встречал

Robert
11.12.2017
05:33:57
Virlo ...

Александр
11.12.2017
09:08:13
чО то я в доке не могу найти как сделать миграцию образа lxc между rbd

Google

Александр
11.12.2017
09:08:22
средствами pve

Aleks
11.12.2017
09:30:15
народ - нид хелп
есть какая-то особенность в настройке проксмокс между 4 и 5 по портченелу

Stanislav
11.12.2017
09:39:01
как между debian 8 и 9

KitKat
11.12.2017
09:50:30

Aleks
11.12.2017
10:01:49
да блять хрень какая-то вставляю стандартный конфиг... нетворкинг сервис непонять на че ругается
сеть работает через одно место, циска на двух портах видит один мак..

Stanislav
11.12.2017
10:04:02
802,3ад выставлен, лацп?

Sergey
11.12.2017
10:04:36
auto ens786f0
iface ens786f0 inet manual
mtu 9000
post-up /sbin/ethtool -G ens786f0 rx 4096 tx 4096
post-up /sbin/ethtool -K ens786f0 tso off gso off gro off lro off
post-up /sbin/ifconfig ens786f0 txqueuelen 10000
auto ens786f1
iface ens786f1 inet manual
mtu 9000
post-up /sbin/ethtool -G ens786f1 rx 4096 tx 4096
post-up /sbin/ethtool -K ens786f1 tso off gso off gro off lro off
post-up /sbin/ifconfig ens786f1 txqueuelen 10000
auto bond1
iface bond1 inet static
address 10.1.80.1
netmask 255.255.255.0
slaves ens786f0 ens786f1
bond_mode 802.3ad
bond_miimon 100
bond_xmit_hash_policy layer3+4
bond_lacp_rate fast
mtu 9000
post-up /sbin/ifconfig bond1 txqueuelen 10000


Aleks
11.12.2017
10:08:07
cat /etc/network/interfaces
auto lo
iface lo inet loopback
auto bond0
iface bond0 inet manual
slaves eno1 eno2
bond_miimon 100
bond_mode 802.3ad
auto vmbr0
iface vmbr0 inet static
bridge_ports none
bridge_stp off
bridge_fd 0
auto bond0.421
iface bond0.421 inet static
address 0.0.0.0
netmask 0.0.0.0
auto vmbr421
iface vmbr421 inet static
address 10.245.253.133
netmask 255.255.255.0
gateway 10.245.253.1
bridge_ports bond0.421
bridge_stp off
bridge_fd 0
auto bond0.111
iface bond0.111 inet static
address 0.0.0.0
netmask 0.0.0.0
auto vmbr111
iface vmbr111 inet manual
bridge_ports bond0.111
bridge_stp off
bridge_fd 0
вот как-то так
service networking restart
Dec 11 20:12:43 depo-n3 systemd[1]: networking.service: Main process exited, code=exited, status=1/FAILURE
Dec 11 20:12:43 depo-n3 systemd[1]: Failed to start Raise network interfaces.
— Subject: Unit networking.service has failed


Sergey
11.12.2017
10:11:46
Выруби networking и вручную через ifdown/ifconfig выключи по одному все интнрфейсы.
На живую все это очень глючно рестартует
И интерфейсов eno в конфиге нет

Stanislav
11.12.2017
10:21:52
вообще физ интерфейсов в конфиге нет )

Omfg
11.12.2017
12:51:57
Всем добрый день.
Подскажите почему не могут не переезжать виртуалки на kvm ubuntu.
ошибка: внутренняя ошибка: не удалось выполнить команду QEMU «cont»: Failed to lock byte 100

Google

Kirill
11.12.2017
12:53:24
агент стоит ?

Konstantin
11.12.2017
12:54:05

Omfg
11.12.2017
12:55:00
Какой?

Alexei
11.12.2017
12:55:49
всем здрасьти
я не спамер

Влад
11.12.2017
12:56:56
День добрый, подскажите, есть Proxmox, правда что для работы на ISCSI необходим 10 гигабитный канал?

Sergey
11.12.2017
12:58:53
Говорят да, но на практике, на 40 OSD и 44 виртуалки я ооочень редко вижу выход за пределы гигабита

Alexander
11.12.2017
12:59:36
Он считай для любого сетевого хранилища нужен. А в реальности вопрос что у тебя там будет. Может и гиг сойдёт.

Konstantin
11.12.2017
12:59:57

Alexander
11.12.2017
12:59:57

Sergey
11.12.2017
13:00:42
Латенси...
Разве что на фиберчаннеле латенси меньше будет. У меня медь 10Г

Alexander
11.12.2017
13:01:01
Я про гиг

Влад
11.12.2017
13:02:51
около 40 виртуалок, есть ли еще какое то решение для миграции между нодами? кроме как доставать виртуалки из бэкапа, канал гигабитный
кто то настраивал gluster-fs? были с ним какие то проблемы?

Алексей
11.12.2017
13:09:51
Доброго всем! Ребят, кто нибуть пробовал на proxmox использовать одновременно 80 контейнеров Ubuntu?

Hackru
11.12.2017
13:10:47
ровно 80?

Алексей
11.12.2017
13:11:08
ну не ровно =)) Около того =)