@pro_kvm

Страница 228 из 521
Nick
05.10.2017
13:04:28
проверил

я уже почитал, что blk немного быстрее, чем scsi - но тут у меня особого выбора нет - слишком много lun-ов надо подавать в виртуалки

Александр
05.10.2017
13:06:14
Без иронии и сарказма, хуево быть тобой

Nick
05.10.2017
13:08:08
это понятно ? как-бы, блин, раскочегарить всю эту байду )

Google
Александр
05.10.2017
13:08:53
Попробуй сменить драйвер O_o

Хуй знает поможет это или нет

Nick
05.10.2017
13:10:58
угу.. я и так пробую разные варианты.. а в чате только мы живые? ?

Александр
05.10.2017
13:11:18
@count0ru

@hackru

@SinTeZoiD

@lAionl

Эти еще иногда пишут)

Может проснуться

Михаил
05.10.2017
13:12:07
да ты и сам неплохо справляешься

Dmitry
05.10.2017
13:31:12
что опять?

Vadim
05.10.2017
13:53:35
угу.. я и так пробую разные варианты.. а в чате только мы живые? ?
Ничего пока не падает прост На след неделе чегонибудь новое поставлю, упадет - напишу))

Valeriy
05.10.2017
15:02:22
А кто сталкивался с рандомным отваливанием сетки на госте? Ребут внутри гостя через vnc помогает. Хост федора 25/26. Гость цента 7.3/7.4.

Google
Valeriy
05.10.2017
15:02:59
Причем может за сутки 2-5 раз быть. А может за неделю ни разу

Vadim
05.10.2017
15:04:00
драйвер сетевой посмотреть

какой стоит?

Valeriy
05.10.2017
15:04:20
Virtio

Сетка в бридже

Vadim
05.10.2017
15:06:02
Тогда хз)

iscsi попробовать, на старых rhel помогало

может, дело в хосте? на федоре нечасто их делают

Valeriy
05.10.2017
15:07:22
22-23-24 - полет нормальный с аптаймом в 800 дней

Тоже грешу на федору.

Но тот же ovirt вроде ее и предлагает

Даже 21ю нашел

А теперь прям боюсь сетапить новые ноды.

То работает норм, то проблема с потерей сети

Nick
05.10.2017
15:13:15
Valeriy
05.10.2017
15:17:01
Да вот кроме миллиона лет назад больше не нахожу почему так.

Или проблему до сих пор не фиксанули?

У меня как то наоборот до недавнего времени вообще никаких проблем

Nick
05.10.2017
15:18:16
Ее описание я находил, причина осталась для меня загадкой - лечилось передергиванием сетевухи изрутри виртуалки, на что был выделен спец скрипт :)

Проявлялось только под нагрузкой

Google
Nick
05.10.2017
15:20:23
Сменить драйвер сетевухи не вариант? Траф большой?

давайте обсудим теперь дисковый IO ? диск (multipath fiber channel device - там ssd) подан в гвестовую машинку как virtio-scsi (lun, scsi-passthrough) FIO [global] size=20g thread=8 ioengine=libaio iodepth=4 direct=1 buffered=0 bs=8k [drive1] filename=/dev/XXXXX ХОСТ-МАШИНА drive1: (g=0): rw=read, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4 Jobs: 1 (f=1): [R(1)] [100.0% done] [89664KB/0KB/0KB /s] [11.3K/0/0 iops] [eta 00m:00s] drive1: (groupid=0, jobs=1): err= 0: pid=87279: Thu Oct 5 15:50:47 2017 read : io=20480MB, bw=74281KB/s, iops=9285, runt=282327msec slat (usec): min=2, max=374, avg=10.95, stdev= 7.47 ГВЕСТ drive1: (g=0): rw=read, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4 Jobs: 1 (f=1): [R] [100.0% done] [46993K/0K/0K /s] [5874 /0 /0 iops] [eta 00m:00s]] drive1: (groupid=0, jobs=1): err= 0: pid=14152: Thu Oct 5 17:50:07 2017 read : io=20480MB, bw=48684KB/s, iops=6085 , runt=430772msec slat (usec): min=1 , max=46643 , avg=14.49, stdev=55.17 разница по иопсам в 2 раза если тупенько через dd - ХОСТ # dd if=/dev/mapper/mpathb of=/dev/null bs=8192 ^@^C19886736+0 records in 19886735+0 records out 162912133120 bytes (163 GB) copied, 125.135 s, 1.3 GB/s ГВЕСТ dd if=/dev/sdaa of=/dev/null bs=8192 ^C2328015+0 records in 2328014+0 records out 19071090688 bytes (19 GB) copied, 113.942 s, 167 MB/s разница чуть меньше, чем в 10 раз
короче ситуация нормализовалась (до 70-80% производительности от хост-системы) после установки в гвеста RHEL7 с этим уже можно работать и вытянуть еще процентов 10...

terry
06.10.2017
12:20:44
https://rosplatforma.ru/#kvm

кто мне может пояснить, как они докеры плотнее смогли сложить? ;)

может я чего ен выкупил?

+ такое чувство, что они взяли наработки Proxmox с нескучными обоями и предлагают конечному юзеру...

хотя больше на openstack похоже

Uncel
06.10.2017
12:23:19
это виртуоззо 7

terry
06.10.2017
12:56:48
там точно докер?
а есит еще варианты, когда мы говорим о контейнерах в 2017 ?

-_+
06.10.2017
12:59:22
lxc

terry
06.10.2017
12:59:34
смешно

Vladimir
06.10.2017
13:18:41
и не забудьте про VZ

-_+
06.10.2017
13:48:38
Пасаны А было такое что ставите в пятом проксе openv-switch а он не ставится?)

Nick
06.10.2017
13:50:07
и не забудьте про VZ
вечная память

Vladimir
06.10.2017
13:50:32
виртуоззо с росплатформой так не думают

Hackru
06.10.2017
14:55:00
и правильно делают

в lxc до сих пор базовые вещи не завезли

что ты там такое делаешь что обычных бриджей не хватает?

Google
Михаил
06.10.2017
22:10:20
rkt
FreeBSD jail

terry
07.10.2017
05:57:28
FreeBSD jail
на самом деле да, года б 4 нащад ок, сейчас докер вывозит, фря загибается потроху в плане серверов

для веба

Александр
09.10.2017
10:07:32
Меня этот прокс заибал, 5.0 - кластер веб показывает оффлайн, хотя на деле в pvecm status все норм



Nick
09.10.2017
10:09:44
это сборщик статистики глючит

Александр
09.10.2017
10:10:24
какой демон?

Nick
09.10.2017
10:11:00
ща, вспомню

pvestatd

Александр
09.10.2017
10:13:32
Ага, спасиб, посмотрю

Hackru
09.10.2017
10:14:53
pvestatd
тогда бы хотя бы одна нода была б зеленой

Nick
09.10.2017
10:15:10
тоже правда... ну попитка не питка...

Александр
09.10.2017
10:15:38
Хм, непонятно что ему не нравится

Yaroslav
09.10.2017
20:08:32
Привет! Кто подскажет, если второй хост с проксмоксом 5-ым воссоединить в кластер. Читал такое можно. Можно ли как-то миграцию вм сделать, если хранилище не общее, а локально qcow hdd ?

Ivan
09.10.2017
20:12:24
выключаешь машину, копируешь образ и т.д.

Yaroslav
09.10.2017
20:13:35
Там есть репликация в менюшке...

но хз работает ли она

Google
Roman
09.10.2017
20:23:37
Выключить перед этим ?
Честно говоря, емнип, я даже не пробовал никогда включеную таким образом мигрировать :) Выключеная мигрирует без проблем.

Yaroslav
09.10.2017
20:24:17
sql виндовый кто-то крутит на проксе ? Как работает, поделитесь впечатлениями?)

Georgii
10.10.2017
06:36:29
Всем доброе утро, подскажите вопрос теоретический. Две сетевухи гипервизора 10 Gb соединены лагом с 2-мя свитчами 10 Gb, планируется по ним подключать гонять трафик до стореджа по ISCSI соответственно есть ещё сеть для виртуализации, сеть с внешними ip для виртуалок. Все это планируется разнести в этом лаге через vlan. Вопрос - при активном использовании стореджа, может ли забиться сеть 20Gb, и встать работа виртуализации

или вынести сеть для общения с внешним миром на 1Gb порты ?

Михаил
10.10.2017
06:38:33
или вынести сеть для общения с внешним миром на 1Gb порты ?
management network на отдельных портах - правило хорошего тона

Stanislav
10.10.2017
06:38:56
смотря что за нагрузка и хранилка, но сильно вряд ли. айскази не долджен работать через лаг, мультипас наше все

Georgii
10.10.2017
06:39:02
менеджмент в смысле ipmi ?

Михаил
10.10.2017
06:39:23
менеджмент в смысле ipmi ?
всмысле управление вм

Georgii
10.10.2017
06:39:49
Да, мультипас, но если две 10-ки соеденены в бонд, то он должен по идее дать

хотя на HP свитче максимум 13-14 прокачивает

буду еще на dell и juniper тестировать

Михаил
10.10.2017
06:40:47
сколько гипервизоров то?

Страница 228 из 521