
Nick
05.10.2017
13:04:28
проверил
я уже почитал, что blk немного быстрее, чем scsi - но тут у меня особого выбора нет - слишком много lun-ов надо подавать в виртуалки

Александр
05.10.2017
13:06:14
Без иронии и сарказма, хуево быть тобой

Nick
05.10.2017
13:08:08
это понятно ? как-бы, блин, раскочегарить всю эту байду )

Google

Александр
05.10.2017
13:08:53
Попробуй сменить драйвер O_o
Хуй знает поможет это или нет

Nick
05.10.2017
13:10:58
угу.. я и так пробую разные варианты.. а в чате только мы живые? ?

Александр
05.10.2017
13:11:18
@count0ru
@hackru
@SinTeZoiD
@lAionl
Эти еще иногда пишут)
Может проснуться

Михаил
05.10.2017
13:12:07
да ты и сам неплохо справляешься

Dmitry
05.10.2017
13:31:12
что опять?

Vadim
05.10.2017
13:53:35

Valeriy
05.10.2017
15:02:22
А кто сталкивался с рандомным отваливанием сетки на госте? Ребут внутри гостя через vnc помогает. Хост федора 25/26. Гость цента 7.3/7.4.

Google

Valeriy
05.10.2017
15:02:59
Причем может за сутки 2-5 раз быть. А может за неделю ни разу

Vadim
05.10.2017
15:04:00
драйвер сетевой посмотреть
какой стоит?

Valeriy
05.10.2017
15:04:20
Virtio
Сетка в бридже

Vadim
05.10.2017
15:06:02
Тогда хз)
iscsi попробовать, на старых rhel помогало
может, дело в хосте? на федоре нечасто их делают

Valeriy
05.10.2017
15:07:22
22-23-24 - полет нормальный с аптаймом в 800 дней
Тоже грешу на федору.
Но тот же ovirt вроде ее и предлагает
Даже 21ю нашел
А теперь прям боюсь сетапить новые ноды.
То работает норм, то проблема с потерей сети

Nick
05.10.2017
15:13:15

Valeriy
05.10.2017
15:17:01
Да вот кроме миллиона лет назад больше не нахожу почему так.
Или проблему до сих пор не фиксанули?
У меня как то наоборот до недавнего времени вообще никаких проблем

Nick
05.10.2017
15:18:16
Ее описание я находил, причина осталась для меня загадкой - лечилось передергиванием сетевухи изрутри виртуалки, на что был выделен спец скрипт :)
Проявлялось только под нагрузкой

Google


Nick
05.10.2017
15:20:23
Сменить драйвер сетевухи не вариант? Траф большой?
давайте обсудим теперь дисковый IO ?
диск (multipath fiber channel device - там ssd) подан в гвестовую машинку как
virtio-scsi (lun, scsi-passthrough)
FIO
[global]
size=20g
thread=8
ioengine=libaio
iodepth=4
direct=1
buffered=0
bs=8k
[drive1]
filename=/dev/XXXXX
ХОСТ-МАШИНА
drive1: (g=0): rw=read, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4
Jobs: 1 (f=1): [R(1)] [100.0% done] [89664KB/0KB/0KB /s] [11.3K/0/0 iops] [eta 00m:00s]
drive1: (groupid=0, jobs=1): err= 0: pid=87279: Thu Oct 5 15:50:47 2017
read : io=20480MB, bw=74281KB/s, iops=9285, runt=282327msec
slat (usec): min=2, max=374, avg=10.95, stdev= 7.47
ГВЕСТ
drive1: (g=0): rw=read, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4
Jobs: 1 (f=1): [R] [100.0% done] [46993K/0K/0K /s] [5874 /0 /0 iops] [eta 00m:00s]]
drive1: (groupid=0, jobs=1): err= 0: pid=14152: Thu Oct 5 17:50:07 2017
read : io=20480MB, bw=48684KB/s, iops=6085 , runt=430772msec
slat (usec): min=1 , max=46643 , avg=14.49, stdev=55.17
разница по иопсам в 2 раза
если тупенько через dd -
ХОСТ
# dd if=/dev/mapper/mpathb of=/dev/null bs=8192
^@^C19886736+0 records in
19886735+0 records out
162912133120 bytes (163 GB) copied, 125.135 s, 1.3 GB/s
ГВЕСТ
dd if=/dev/sdaa of=/dev/null bs=8192
^C2328015+0 records in
2328014+0 records out
19071090688 bytes (19 GB) copied, 113.942 s, 167 MB/s
разница чуть меньше, чем в 10 раз
короче ситуация нормализовалась (до 70-80% производительности от хост-системы) после установки в гвеста RHEL7
с этим уже можно работать и вытянуть еще процентов 10...


terry
06.10.2017
12:20:44
https://rosplatforma.ru/#kvm
кто мне может пояснить, как они докеры плотнее смогли сложить? ;)
может я чего ен выкупил?
+ такое чувство, что они взяли наработки Proxmox с нескучными обоями и предлагают конечному юзеру...
хотя больше на openstack похоже

Uncel
06.10.2017
12:23:19
это виртуоззо 7

Konstantin
06.10.2017
12:53:54

terry
06.10.2017
12:56:48

-_+
06.10.2017
12:59:22
lxc

terry
06.10.2017
12:59:34
смешно

Vladimir
06.10.2017
13:18:41
и не забудьте про VZ

-_+
06.10.2017
13:48:38
Пасаны
А было такое что ставите в пятом проксе openv-switch а он не ставится?)

Nick
06.10.2017
13:50:07

Vladimir
06.10.2017
13:50:32
виртуоззо с росплатформой так не думают

Hackru
06.10.2017
14:55:00
и правильно делают
в lxc до сих пор базовые вещи не завезли
что ты там такое делаешь что обычных бриджей не хватает?

Google

Dmitry
06.10.2017
20:05:19

Михаил
06.10.2017
22:10:20

terry
07.10.2017
05:57:28
FreeBSD jail
на самом деле да, года б 4 нащад ок, сейчас докер вывозит, фря загибается потроху в плане серверов
для веба

Александр
09.10.2017
10:07:32
Меня этот прокс заибал, 5.0 - кластер веб показывает оффлайн, хотя на деле в pvecm status все норм

Nick
09.10.2017
10:09:44
это сборщик статистики глючит

Александр
09.10.2017
10:10:24
какой демон?

Nick
09.10.2017
10:11:00
ща, вспомню
pvestatd

Александр
09.10.2017
10:13:32
Ага, спасиб, посмотрю

Hackru
09.10.2017
10:14:53
pvestatd
тогда бы хотя бы одна нода была б зеленой

Nick
09.10.2017
10:15:10
тоже правда... ну попитка не питка...

Александр
09.10.2017
10:15:38
Хм, непонятно что ему не нравится

Yaroslav
09.10.2017
20:08:32
Привет! Кто подскажет, если второй хост с проксмоксом 5-ым воссоединить в кластер. Читал такое можно. Можно ли как-то миграцию вм сделать, если хранилище не общее, а локально qcow hdd ?

Ivan
09.10.2017
20:12:24
выключаешь машину, копируешь образ и т.д.

Yaroslav
09.10.2017
20:13:35
Там есть репликация в менюшке...
но хз работает ли она

Roman
09.10.2017
20:22:18

Google

Yaroslav
09.10.2017
20:22:48

Roman
09.10.2017
20:23:37
Выключить перед этим ?
Честно говоря, емнип, я даже не пробовал никогда включеную таким образом мигрировать :)
Выключеная мигрирует без проблем.

Yaroslav
09.10.2017
20:24:17
sql виндовый кто-то крутит на проксе ? Как работает, поделитесь впечатлениями?)

Georgii
10.10.2017
06:36:29
Всем доброе утро, подскажите вопрос теоретический. Две сетевухи гипервизора 10 Gb соединены лагом с 2-мя свитчами 10 Gb, планируется по ним подключать гонять трафик до стореджа по ISCSI соответственно есть ещё сеть для виртуализации, сеть с внешними ip для виртуалок. Все это планируется разнести в этом лаге через vlan. Вопрос - при активном использовании стореджа, может ли забиться сеть 20Gb, и встать работа виртуализации
или вынести сеть для общения с внешним миром на 1Gb порты ?

Михаил
10.10.2017
06:38:33

Stanislav
10.10.2017
06:38:56
смотря что за нагрузка и хранилка, но сильно вряд ли. айскази не долджен работать через лаг, мультипас наше все

Georgii
10.10.2017
06:39:02
менеджмент в смысле ipmi ?

Михаил
10.10.2017
06:39:23

Georgii
10.10.2017
06:39:49
Да, мультипас, но если две 10-ки соеденены в бонд, то он должен по идее дать
хотя на HP свитче максимум 13-14 прокачивает
буду еще на dell и juniper тестировать

Михаил
10.10.2017
06:40:47
сколько гипервизоров то?