@pro_kvm

Страница 264 из 521
Dan
08.12.2017
17:07:05
нет, там без потерь вообще (помимо стандартных милисекунд при живой миграции)

Shamil
08.12.2017
17:08:12
Век живи, век учись.

Dan
08.12.2017
17:08:52
когда я писал этот код, я просто вместо того чтоб цеплять функцию к vm, собирал все функции в пул, давал vm мак, и цеплял к пулу. При миграции машина просто брала себе функцию из пула на новом хосте, и цепляла на нее тот же мак. А дальше обычная миграция - синхронизация памяти и переброс

Google
Dan
08.12.2017
17:09:48
https://www.ovirt.org/develop/developer-guide/vdsm/hook/vmfex/

но с тех пор там все переписали погламурнее, я ведь не программист, просто надо было решение быстро навелосипедить

Shamil
08.12.2017
17:12:03
В нашем деле часто так: писать свое, или искать где уже написано, или костылять.

Dan
08.12.2017
17:14:20
Этот костыль в 2010-ом принес фирме семизначный доход, и с тех пор каждый год приносит не меньше :) Тогда просто времени ждать не было, клиент без этого не мог начать работать

terry
09.12.2017
08:17:53
Добрый день. Ребята, чего я не выкупаю?





типа я нарезал виртуалок, lvm которых в будущем при полном заполнении уже 1,81 Тб ?

terry
09.12.2017
19:13:33
Да, это lvm-thin
при этом я создал + 2 виртуалки и данные на первом скрине не поменялись

такое чуство, что там какая-то срань получилась

это я просто проапдейтил proxmox и саму систему

с 5,0,32 до 5.1-38

Google
Konstantin
09.12.2017
19:19:20
с 5,0,32 до 5.1-38
Он всегда thin так показывает и zfs, точнее показывает сколько занято на деле

Sergey
10.12.2017
11:26:24
хохлам написала, что им... Ж)

terry
10.12.2017
11:33:07
хохлам написала, что им... Ж)
ты тоже испытываешь негодование ?

или что это?

Sergey
10.12.2017
11:34:05
iлi

KitKat
10.12.2017
12:00:29


s3rj1k
10.12.2017
14:02:14
а bsod будет если извлечь?

KitKat
10.12.2017
14:03:48
Отвалится виртуальная железка если извлечь диск то скорее всего

Притом без разницы какие у тебя права

KitKat
10.12.2017
14:05:26
Ничего не произойдет , Это же просто передача инфы в ноду

Но это не точно )

s3rj1k
10.12.2017
14:07:17
Ничего не произойдет , Это же просто передача инфы в ноду
а если в это время с гипервизора начать ужимать память?)

KitKat
10.12.2017
14:08:02
Balloon, нужно как службу запускать , иначе это не работает

s3rj1k
10.12.2017
15:59:55
Balloon, нужно как службу запускать , иначе это не работает
в линпусах из коробки, поэтому и спросил

KitKat
10.12.2017
16:01:28
Это да ) с этим проблем не встречал

Robert
11.12.2017
05:33:57
Virlo ...

Александр
11.12.2017
09:08:13
чО то я в доке не могу найти как сделать миграцию образа lxc между rbd

Google
Александр
11.12.2017
09:08:22
средствами pve

Aleks
11.12.2017
09:30:15
народ - нид хелп

есть какая-то особенность в настройке проксмокс между 4 и 5 по портченелу

Stanislav
11.12.2017
09:39:01
как между debian 8 и 9

KitKat
11.12.2017
09:50:30
Virlo ...
Только заметил )

Aleks
11.12.2017
10:01:49
да блять хрень какая-то вставляю стандартный конфиг... нетворкинг сервис непонять на че ругается

сеть работает через одно место, циска на двух портах видит один мак..

Stanislav
11.12.2017
10:04:02
802,3ад выставлен, лацп?

Sergey
11.12.2017
10:04:36
auto ens786f0 iface ens786f0 inet manual mtu 9000 post-up /sbin/ethtool -G ens786f0 rx 4096 tx 4096 post-up /sbin/ethtool -K ens786f0 tso off gso off gro off lro off post-up /sbin/ifconfig ens786f0 txqueuelen 10000 auto ens786f1 iface ens786f1 inet manual mtu 9000 post-up /sbin/ethtool -G ens786f1 rx 4096 tx 4096 post-up /sbin/ethtool -K ens786f1 tso off gso off gro off lro off post-up /sbin/ifconfig ens786f1 txqueuelen 10000 auto bond1 iface bond1 inet static address 10.1.80.1 netmask 255.255.255.0 slaves ens786f0 ens786f1 bond_mode 802.3ad bond_miimon 100 bond_xmit_hash_policy layer3+4 bond_lacp_rate fast mtu 9000 post-up /sbin/ifconfig bond1 txqueuelen 10000

Aleks
11.12.2017
10:08:07
cat /etc/network/interfaces auto lo iface lo inet loopback auto bond0 iface bond0 inet manual slaves eno1 eno2 bond_miimon 100 bond_mode 802.3ad auto vmbr0 iface vmbr0 inet static bridge_ports none bridge_stp off bridge_fd 0 auto bond0.421 iface bond0.421 inet static address 0.0.0.0 netmask 0.0.0.0 auto vmbr421 iface vmbr421 inet static address 10.245.253.133 netmask 255.255.255.0 gateway 10.245.253.1 bridge_ports bond0.421 bridge_stp off bridge_fd 0 auto bond0.111 iface bond0.111 inet static address 0.0.0.0 netmask 0.0.0.0 auto vmbr111 iface vmbr111 inet manual bridge_ports bond0.111 bridge_stp off bridge_fd 0

вот как-то так

service networking restart

Dec 11 20:12:43 depo-n3 systemd[1]: networking.service: Main process exited, code=exited, status=1/FAILURE Dec 11 20:12:43 depo-n3 systemd[1]: Failed to start Raise network interfaces. — Subject: Unit networking.service has failed

Sergey
11.12.2017
10:11:46
Выруби networking и вручную через ifdown/ifconfig выключи по одному все интнрфейсы.

На живую все это очень глючно рестартует

И интерфейсов eno в конфиге нет

Stanislav
11.12.2017
10:21:52
вообще физ интерфейсов в конфиге нет )

Omfg
11.12.2017
12:51:57
Всем добрый день.

Подскажите почему не могут не переезжать виртуалки на kvm ubuntu.

ошибка: внутренняя ошибка: не удалось выполнить команду QEMU «cont»: Failed to lock byte 100

Google
Kirill
11.12.2017
12:53:24
агент стоит ?

Konstantin
11.12.2017
12:54:05
На живую все это очень глючно рестартует
на живую глючно если конфиг с ошибками, не замечал проблем

Omfg
11.12.2017
12:55:00
Какой?

Alexei
11.12.2017
12:55:49
всем здрасьти

я не спамер

Влад
11.12.2017
12:56:56
День добрый, подскажите, есть Proxmox, правда что для работы на ISCSI необходим 10 гигабитный канал?

Sergey
11.12.2017
12:58:53
Говорят да, но на практике, на 40 OSD и 44 виртуалки я ооочень редко вижу выход за пределы гигабита

Alexander
11.12.2017
12:59:36
Он считай для любого сетевого хранилища нужен. А в реальности вопрос что у тебя там будет. Может и гиг сойдёт.

Konstantin
11.12.2017
12:59:57
Sergey
11.12.2017
13:00:42
Латенси...
Разве что на фиберчаннеле латенси меньше будет. У меня медь 10Г

Alexander
11.12.2017
13:01:01
Я про гиг

Влад
11.12.2017
13:02:51
около 40 виртуалок, есть ли еще какое то решение для миграции между нодами? кроме как доставать виртуалки из бэкапа, канал гигабитный

кто то настраивал gluster-fs? были с ним какие то проблемы?

Алексей
11.12.2017
13:09:51
Доброго всем! Ребят, кто нибуть пробовал на proxmox использовать одновременно 80 контейнеров Ubuntu?

Hackru
11.12.2017
13:10:47
ровно 80?

Алексей
11.12.2017
13:11:08
ну не ровно =)) Около того =)

Страница 264 из 521