@pro_openstack

Страница 50 из 117
Марк ☢
08.12.2016
21:14:47
Кароч можно попробовать и посмотреть в чо уперлось. В сеть или диски

Если по одному диску на нод то 1г в принципе хватит

Xeniya MTS
08.12.2016
21:16:39
а сколько можно ожидать iops? И потребления RAM? Если есть какая-нибудь табличка, было бы интересно посмотреть

Александр
08.12.2016
21:18:24
Что за дичь

Google
Михаил
08.12.2016
21:18:48
Xeniya MTS
08.12.2016
21:19:38
Александр
08.12.2016
21:19:53
гиг на терик не сильно много
По итогу больше нужно

Там все демоны ОЗУ жрут

Доку начал читать ?

И проц кстати кушают тоже

Михаил
08.12.2016
21:23:08
И проц кстати кушают тоже
Ну я даже при ребалансе не видел

Александр
08.12.2016
21:24:52
Как закупят, если закупят буду тестить

Я сегодня с печалью посмотрел на 10 рейд и охуел, что нужно менять 10 дисков?

ptchol
08.12.2016
21:32:35
Михаил
08.12.2016
21:33:33
о, подошли те кто кушал устриц)

ptchol
08.12.2016
21:34:02
там же ещё чтобы быстро было, нужно ssd подвезти

ну и если рассматривать его как блочный сторадж, то альтернатив то и нет считай.

Google
ptchol
08.12.2016
21:34:57
так что да, ок вполне.

а вот как general purpose пожалуй нет наверно.

Vladimir
08.12.2016
21:35:32
ДРБД не нужен
извините, я тут мимо проходил - а можно объяснить, почему дрбд не нужен?

нет, правда интересно

Марк ☢
08.12.2016
21:35:51
Потому что кернел паники генерит

И не скалебл нихуя

Александр
08.12.2016
21:36:06
Марк ☢
08.12.2016
21:36:17
Тхин провизионинг оно не умеет само

Михаил
08.12.2016
21:36:17
Это ты о чем?
про журналы вестимо

Александр
08.12.2016
21:36:23
Я думаю и смотрю на pcie или m2 ssd

Для этого

ptchol
08.12.2016
21:38:13
всё правильно

Александр
08.12.2016
21:38:52
Правда цена кусается :(

Xeniya MTS
08.12.2016
21:40:47
И не скалебл нихуя
если маленький опенстечек, то и не нужно

Александр
08.12.2016
21:41:16
Чо

Xeniya MTS
08.12.2016
21:41:17
Два контроллера, мастер-слейв, и на каждом cinder и drbd

Александр
08.12.2016
21:41:38
Причём тут опенстак и ceph/drbd

Xeniya MTS
08.12.2016
21:41:52
бэкэнд для cinder же

Александр
08.12.2016
21:42:17
Ещё раз, причём тут размер и опенстак вообще

Google
Александр
08.12.2016
21:42:26
Если речь не о них

Xeniya MTS
08.12.2016
21:42:36
ну вот есть, например, у тебя, скажем, пять железок

Стоят они в стойке

drbd тут для бэкэнда cinder вполне ОК

Александр
08.12.2016
21:43:11
Чем ок?

Xeniya MTS
08.12.2016
21:44:01
будет достаточная производительность (у нас под нагрузкой 200-300 iops было, а без неё и больше было),

и железо не юзается лишнее, и всё такое

мы совмещали роли конроллера и drbd ноды

*контроллера

ну и контроллера для всех сервисов -

от нейтрона до swift

Александр
08.12.2016
21:46:07
?

200-300 это типа ок?

Xeniya MTS
08.12.2016
21:47:01
я знаю, что ты про меня думаешь, поэтому последняя ремарка была, что бы ты не написал "ааа! она курица, и не знает, что контролеры кейстона и гланса можно разнести на разные железки!"

200-300 это типа ок?
там была нагрузка и 1g карточки в бондинге :(

Александр
08.12.2016
21:47:43
Какая разница какие карты, 300 это норм?

Xeniya MTS
08.12.2016
21:48:09
Какая разница какие карты, 300 это норм?
для нашего сервиса было норм

Alexandr
08.12.2016
21:48:13
200-300 на сколько дисков и инстансов? И какого размера io при какой latency?

Xeniya MTS
08.12.2016
21:48:15
зависит от сервиса

Google
Александр
08.12.2016
21:48:57
300 иопс это нихуя это 1 ssd

Xeniya MTS
08.12.2016
21:48:58
Старое железо, от старого проекта

Александр
08.12.2016
21:49:38
Ясно понятно..

Xeniya MTS
08.12.2016
21:49:54
инстансов - если честно, я точно не знаю. Но вопрос беспредметный, сами понимаете, что разные инстансы гененируют разные нагрузки. Зависит от сервиса внутри

но мы старались что можно в Swift вынести

Roman
08.12.2016
21:50:21
300 иопс это нихуя это 1 ssd
это страйп из 3х sata дисков.

Xeniya MTS
08.12.2016
21:50:23
swift стоял на компьютах

веб-приложение файлики например именно в swift складывало

Александр
08.12.2016
21:51:29
Так стоп, 5 серверов по 4*sas и всего лишь 300

Xeniya MTS
08.12.2016
21:51:43
нет

два сервера

Александр
08.12.2016
21:51:51
Я чего-то не понимать или меня где-то наебывать

Xeniya MTS
08.12.2016
21:51:52
мастер drbd, и слейв

слейв drbd - это мастер контроллер опенстека,

Roman
08.12.2016
21:52:20
бля, что я читаю.

Xeniya MTS
08.12.2016
21:52:21
и наоборот

Александр
08.12.2016
21:52:23
А причём тут 5 серверов

Roman
08.12.2016
21:52:28
ну что за трэш

Xeniya MTS
08.12.2016
21:52:31
остальные - компьюты

Google
Александр
08.12.2016
21:52:43
Xeniya MTS
08.12.2016
21:52:46
nova + KVM + Swift

*nova/KVM

Александр
08.12.2016
21:53:20
Мне вот нужно 3к иопс в минималке ?

Расскажи как добиться

Xeniya MTS
08.12.2016
21:53:40
я бы не стала делать drbd на 5 нод

Мне вот нужно 3к иопс в минималке ?
если бы мне дали денег, я бы купила нетапп :)

(для этой задачи)

Roman
08.12.2016
21:54:23
я бы не стала делать drbd на 5 нод
ээээ? это как? drbd - это тупо сетевое зеркало.

Александр
08.12.2016
21:54:28
Ясно понятно

Xeniya MTS
08.12.2016
21:54:57
ээээ? это как? drbd - это тупо сетевое зеркало.
Ну и что? У меня /boot на домашнем компе из 4 дисков raid 1

ещё раз -

микроопенстек,

две железки - контроллеры всех сервисов опенстека

на них же drbd

и мастер контроллеры опенстека совпадают со слейвом drbd,

и наоборот

остальные три железки - компьюты

Nova/KVM + ноды Swift

Alexandr
08.12.2016
22:00:43
Я просто к чему. К вопросу нужен ли 10g. У меня на тестовой лабе ceph'а из двух серверов, 20 дисков sata, журналы на ssd, bond 2x1g выходило изнутри инстанса 2000-2200 iops 4k rand rw при latency 10ms. И это не в сеть упиралось. Но вот чем больше osd будет и чем быстрее хочется потом восстанавливаться при сбоях, тем больше будет потребность в сети, памяти и проце

Александр
08.12.2016
22:22:05
1gbond dno:-(

10 нужно будет в любом случае

Страница 50 из 117