
Иван
29.12.2016
15:49:57
то есть минимум 6, на самом деле

Dmitry
29.12.2016
16:00:36

Александр
29.12.2016
16:04:21

Иван
29.12.2016
16:53:40
200 гиг раму жалка?

Google

Александр
29.12.2016
16:53:56
Их купить надо ещё

Иван
29.12.2016
16:57:36
ну это было в плане хостинга, может в твоем применении можно будет меньше

Александр
29.12.2016
16:58:15
Виртуалки хранятся
Но ОЗУ надо всё равно покупать


Roman
29.12.2016
18:34:05
Я тут постоянно работаю с линукс бриджами и KVM виртуалками. Часто требуется взглянуть на бриджи, включенные в них интерфейсы и понять, какие VM куда включены. с простым brctl и virsh было неудобно. С баш уанлайнерами тоже не очень.
Состряпал на колене питон скрипт, который выдает вот такую табличку
[root@leo ~]# python brvirt.py
+----------+---------------+-----------+-------------+--------------------+
| Bridge | Interface | VM name | Domain ID | Int. MAC address |
|----------+---------------+-----------+-------------+--------------------|
| br0 | eno1 | | | 28:80:23:90:ea:28 |
| | vnet0 | cobbler | 8 | 52:54:00:5a:a9:2c |
| | vnet4 | nuage-dns | 4 | 52:54:00:db:45:92 |
| br1 | eno2 | | | 28:80:23:90:ea:29 |
| | vnet1 | cobbler | 8 | 52:54:00:9b:c2:dc |
| br999 | eno2.999@eno2 | | | 28:80:23:90:ea:29 |
+----------+---------------+-----------+-------------+--------------------+
Если кому пригодится — здорово https://github.com/hellt/brvirt


Sergey
29.12.2016
18:43:42
4+2 это какой памяти7 или под арк кеш?
2Гб это на каждые 100 Гб сырого места?
то есть 4 винта по 2 Тб = 8 Тб, это 80 раз по 100, итого 164 Гб озу + 4 Гб Ж) нехило так

Александр
29.12.2016
19:01:06
Зачем
М
>1 eth на роде?
Ноде
Т.е. не так, кто-то подключает больше 1eth на ноде и как это делают внутри квм?

Google

Александр
29.12.2016
19:02:40
распределить автоматически нельзя на сколько я знаю

Sergey
29.12.2016
19:04:56
что? портченнел не7

Александр
29.12.2016
19:05:46
Всё всё всё
говном закидаете
посмотрел доку
А зачем. смысл какой для этого
Хотя. всё, даже кейс придумал

Sergey
29.12.2016
19:07:03
про портченнел или про что?
ну увеличение пропускной способности сети, резрвирование езернетлинков, или чёт вы про другое?

Александр
29.12.2016
19:07:43
про резервирование

Sergey
29.12.2016
19:08:45
еще и по 2 провода питания в ноду
итого 5 проводов к ноде, 3 езернет, 2 питания

Александр
29.12.2016
19:09:45
А квм
А ilo/ipmi

Sergey
29.12.2016
19:10:02
да
отдельным портом стомегабитным

Иван
29.12.2016
19:10:15

Sergey
29.12.2016
19:10:43
может для хостинга ссд
?
или нужно овердофига места7

Google

Sergey
29.12.2016
19:11:40
но память 200 Гб тоже не копейки

Александр
29.12.2016
19:15:49
4*4тб, 8*2тб - вопрос к этому было
виртуализация
Эт я про зол и озу
я об этом спрашивал

Sergey
29.12.2016
19:16:26
ну там память про которую ты говоришь это для arc кеша?
в зфс

Александр
29.12.2016
19:17:35
угу под arc

Иван
29.12.2016
19:23:53
ssd конешно. Я уже лет 5 как магнитными дисками только на бэкапах пользуюсь.

Kirill
02.01.2017
09:31:28
https://www.opennet.ru/opennews/art.shtml?num=45797
Эт че?
Всем привет и с новым годом

Andrew
02.01.2017
12:10:05
хрень какаято для связки пк/серверов в вычислительный кластер
типа xgrid чтоли

Александр
02.01.2017
13:00:17
Шото похожее

Dmitry
02.01.2017
13:29:11
Короче нинужна

Александр
02.01.2017
13:57:10
Почему сразу нинужна?

Andrew
02.01.2017
14:06:29
на эльбрусы можно поставить для вычислений :)

Kirill
02.01.2017
14:12:49
Где б взять эти эльбрусы еще

Andrew
02.01.2017
14:14:45
ну вон они говорят что запустили в серийное, скоро может уже появятся

Google

Kirill
02.01.2017
14:15:16
И будет Эльбрус ай кор 3 и т.д.?
)

Andrew
02.01.2017
14:16:13
хотя у них своя есть система кластеризации, точнее софт тот же, оптимизированный для эльбрусов :)

Roman
02.01.2017
17:12:36
Коллеги, всем здравствуйте.
Подскажите, каким инструментом логичнее всего решить следующую задачу
1) Дан хост с mac os x
2) На нем надо развернуть две виртуальные машины (deb & rhel) с пакетами для kvm виртаулизации
3) на этих nested hypers запустить самые легковесные VM (i.e. cirros)
4) и протестировать код
5) при этом крайне желательно иметь возможность расшаривания общей директории с хоста в вирт машины. Общая директория крайне желательно не должна иметь проблем с soft links (как это происходит в virtualbox)

Anton
08.01.2017
14:03:16


Sergey
08.01.2017
14:16:52
ого, это как?
ну как то так , подробностей не знаю, но вижу когда память поджирается зфс кешем, и виртуалка хочет еще памяти, хост система падает
это на тесте кристалдискмарк внтури виртуалки только воспроизводится

Anton
08.01.2017
14:17:49
а, оверкоммит мемори в каком положении?
и память у вм видать плавающая, да?

Sergey
08.01.2017
14:18:54
я такие подробности хз как оверкоммит, память фиксированная в квм задана
эта хрень в проксомксе 4 воспроизводится, когда хост система и диски виртуалок на зфс

Anton
08.01.2017
14:19:47
а ну и сразу надо было спросить, умирала вм из-за оом киллера, или из-за чего другого?

Sergey
08.01.2017
14:19:56
неее
вм не умирала
если она умирала, то не так страшно
зависала хост система
или в ребут уходила, уже не помню

Google

Anton
08.01.2017
14:20:50
ну тут по чатику траблшутить уже СЛОЖНА
спишем на кривой зол, окда?

Sergey
08.01.2017
14:21:04
да у меня уже и тестового такого сервера нет
с лвм + мдадм такой фигни небыло

Anton
08.01.2017
14:22:19
ну удобство снепшотов у лвм конечно отдельная телега, да и линукс рейду сто лет в обед

Sergey
08.01.2017
14:23:08
там какой то теперь lvm thin provisioning
вообще люблю когда файлы виртуалок в файлах qcow , особо жырных виртуалок нет

Anton
08.01.2017
14:24:44
ну виртуалке на лвме и на зфсе можно не файлами держать, это конечно не так удобно, но минуя всю абстракцию с фс сразу

Sergey
08.01.2017
14:25:06
ну на лвм и зфс можно блочное устройство выделить
раздел

Anton
08.01.2017
14:25:13
да и а зачем тебе qcow{,2} на зфс?)
на лвме и любой другой не ков фс это ок, а на зфс это стоп-кран какой-то

Sergey
08.01.2017
14:25:25
мне зфс вообще не неужен
просто проверил как там работает проксмокс, приуныл
файлы дисков вируталок тоже хочется держать на удобной файловой системе которую просто расширят и резервировать

Anton
08.01.2017
14:26:20
да, кстати в реализации зол, нет настройки очередей, типа
ncq на диске может в 32 аж, а я хочу до ncq очередь уже правильную подавать из 4096 операций
в золе не смог так сделать

Dmitry
08.01.2017
14:47:02