Sergei
фактически шедулер интегрируется с TSDB, которая хранит информацию о характере нагрузки инстансов
Sergei
sbog
Пробовал, но на небольшом количестве инстансов - не больше 50 машин было
J
Если для внутренних - то проблем нет, кмк
Ну, короче, работал я в одном месте, небольшой хостинг был. И там, конечно, все по модели рашн бизнеса и местных ИПшек. Я хозяин, царь и бог, а вы все говно. А уж клиенты - эт не люди. Кроме тех, конечно, кто по несколько килобаксов в месяц платит.
Ну и там прозрачности ни для своих инженеров ни для клиентов не было никакой. Только отмазки мудацкие по поводу плохого сервиса. Потому так остро и реагирую)
sbog
Да не, это нормально :)
sbog
реагировать нормально, я имею в виду :)
Sergei
насколько мне известно, в кубернетесе дефолтный шедулер вообще не оперирует реальным потреблением, он опируется только на requests/limits и старается забивать bestEffort-инстансы туда, куда они хоть как-то влезают.
при этом общая эффективность кубернетесового шедулера говно.
он начинает умирать очень рано и до сих пор не умеет шардиться. впрочем, шардированный шедулер вообще непростая задача.
sbog
Не, я не говорил "ванильном". Я говорил "чуть ли не в ванильном". Это две большие разницы ))
Sergei
шедулер там конечно же заменяем :)
sbog
Просто там само количество кода меньше, чем в опенстеке. И оперировать контейнерами проще, чем vm-ками
Sergei
(как впрочем и в опенстеке)
я почти уверен что у больших вендоров эти идеи вполне реализованы. впрочем, они напрашиваются, когда начинаешь сравнивать цифры "сколько железа продали" и "сколько железа потреблено"
J
Ток интересное началось, мне сваливать надо)
Sergei
sbog
Sergei
впрочем, я за опенстек не очень умею, но там есть как минимум live-миграция, которая позволяет заметно безболезненнее мувать ворклоады
Sergei
sbog
Да, только она не работает нихера из коробки
sbog
sbog
Возможно - да. Целесообразно ли экономически с точки зрения бизнеса - ну наверное, да, но обычно есть значительно более острые задачи. Поэтому и не сделано толком ни у кого.
Sergei
sbog
Это как продавать, да. Просто чаще проще купить еще серверов, чем писать шедулер
Sergei
citius
как OSA заставить полностью перегенерить контейнер?
контейнер neutron_agents падает на этапе setup-hosts на:
failed: [sd-os-03_neutron_agents_container-77f3254a -> 172.29.8.27] (item={'key': u'lan_address', 'value': {u'bridge': u'br-lan', u'mtu': u'1500', u'netmask': u'255.255.252.0', u'address': u'172.29.26.188', u'interface': u'eth12', u'type': u'veth'}}) => {"changed": false, "cmd": ["cat", "/var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr"], "delta": "0:00:00.001733", "end": "2017-11-17 15:53:22.755918", "failed": true, "item": {"key": "lan_address", "value": {"address": "172.29.26.188", "bridge": "br-lan", "interface": "eth12", "mtu": "1500", "netmask": "255.255.252.0", "type": "veth"}}, "rc": 1, "start": "2017-11-17 15:53:22.754185", "stderr": "cat: /var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr: No such file or directory", "stderr_lines": ["cat: /var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr: No such file or directory"], "stdout": "", "stdout_lines": []}
Остальные сети в него подсасываются нормально, сам контейнер стартует.
И это притом, что из openstack_user_config.yml я уже убрал сетку для интерфейса eth12.
дестроить плейбуком этот конкретный контейнер я пробовал, все равно такая же хрень.
lxc-destroy-ем убивать контейнер тоже пробовал.
такое ощущение что где-то закешены какие-то конфиги (факт-кеш я чистил).
Artem
@im_citius
скорее всего здесь: /etc/openstack_deploy/openstack_inventory.json
Maxim
всем привет
есть адекватный мануал по установке опенстак с дашбордом?
нужно отправить клиенту:(
✠ FLASh ✠
а чем офф дока не адекватный мануал?
Maxim
клиенту непонятно хД
J
как OSA заставить полностью перегенерить контейнер?
контейнер neutron_agents падает на этапе setup-hosts на:
failed: [sd-os-03_neutron_agents_container-77f3254a -> 172.29.8.27] (item={'key': u'lan_address', 'value': {u'bridge': u'br-lan', u'mtu': u'1500', u'netmask': u'255.255.252.0', u'address': u'172.29.26.188', u'interface': u'eth12', u'type': u'veth'}}) => {"changed": false, "cmd": ["cat", "/var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr"], "delta": "0:00:00.001733", "end": "2017-11-17 15:53:22.755918", "failed": true, "item": {"key": "lan_address", "value": {"address": "172.29.26.188", "bridge": "br-lan", "interface": "eth12", "mtu": "1500", "netmask": "255.255.252.0", "type": "veth"}}, "rc": 1, "start": "2017-11-17 15:53:22.754185", "stderr": "cat: /var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr: No such file or directory", "stderr_lines": ["cat: /var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr: No such file or directory"], "stdout": "", "stdout_lines": []}
Остальные сети в него подсасываются нормально, сам контейнер стартует.
И это притом, что из openstack_user_config.yml я уже убрал сетку для интерфейса eth12.
дестроить плейбуком этот конкретный контейнер я пробовал, все равно такая же хрень.
lxc-destroy-ем убивать контейнер тоже пробовал.
такое ощущение что где-то закешены какие-то конфиги (факт-кеш я чистил).
домой приду часа через полтора, мож чо соображу)
citius
Вот буду очень благода. ) Сам примерно тогда же вылезу. Оч. хочется подебить. )
J
как OSA заставить полностью перегенерить контейнер?
контейнер neutron_agents падает на этапе setup-hosts на:
failed: [sd-os-03_neutron_agents_container-77f3254a -> 172.29.8.27] (item={'key': u'lan_address', 'value': {u'bridge': u'br-lan', u'mtu': u'1500', u'netmask': u'255.255.252.0', u'address': u'172.29.26.188', u'interface': u'eth12', u'type': u'veth'}}) => {"changed": false, "cmd": ["cat", "/var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr"], "delta": "0:00:00.001733", "end": "2017-11-17 15:53:22.755918", "failed": true, "item": {"key": "lan_address", "value": {"address": "172.29.26.188", "bridge": "br-lan", "interface": "eth12", "mtu": "1500", "netmask": "255.255.252.0", "type": "veth"}}, "rc": 1, "start": "2017-11-17 15:53:22.754185", "stderr": "cat: /var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr: No such file or directory", "stderr_lines": ["cat: /var/lib/lxc/sd-os-03_neutron_agents_container-77f3254a/eth12.hwaddr: No such file or directory"], "stdout": "", "stdout_lines": []}
Остальные сети в него подсасываются нормально, сам контейнер стартует.
И это притом, что из openstack_user_config.yml я уже убрал сетку для интерфейса eth12.
дестроить плейбуком этот конкретный контейнер я пробовал, все равно такая же хрень.
lxc-destroy-ем убивать контейнер тоже пробовал.
такое ощущение что где-то закешены какие-то конфиги (факт-кеш я чистил).
Я чот туплю.
Можешь скинуть список своих бриджей и конфиги сетей из openstack_user_config.yml?)
Andrey
Andrey
я уж было прям подумал...) по моим прикидкам OSA нужно месяца 4 мучать в лабах прежде чем в прод пускать
J
J
Главное ненужную хуйню выключить всю. Типа apply security hardening.
J
В любом случае, рад обсудить был бы. Чем больше народу пробует использовать, тем лучше)
Andrey
да я то за, но что бы серьезно заниматься нужно финансирование) к стати OSA только редхатовские пакеты использует или можно на убунтовые переключиться ?
Andrey
с kolla я точно переключался между RH/Ubuntu
J
J
citius
setup-infrastructure не может пакеты на них поставить, потому что в них есть нужные интерфейсы, но на них нет айпишников. соответственно внешка недоступна.
citius
при этом все br-mgmt интерфейсы друг друга пингуют есессно, сама сеть в поряде.
J
Ну чо-то ад какой-то)
Покажи, пожалуйста, все ж секцию с сетями из openstack_user_config. А лучше его полностью вообще)
citius
ща на термбин скину. сек.
citius
бросил ссылку в личку.
J
Спасибо)
Sergei
баньте его сразу
Sergei
@SinTeZoiD
Михаил
Pavel
Михаил
Pavel
в моих инсталляциях нет оверпровиженинга)
sbog
Ну нет так нет. Я что знаю - то и говорю. Если у вас есть контрпримеры по большим публичным инсталляциям - приводите, я бы с удовольствием ознакомился со статистикой. А то приходится по саммитам ездить и с малознакомыми людьми бухать для этого. А я не пью в таких количествах.
Михаил
sbog
Pavel
в случае приватных облаков - просто надо честно предупреждать заказчика. В случае публичных - хз, дороже выйдет =)
Pavel
на моем опыте даже x3 по cpu выйдет боком через пару лет
Pavel
просто надо понимать - чем больше ты накроишь оверпровиженингом, тем больше ты потратишь на эксплуатации, вот и все. А дальше думать
sbog
x3, кстати, не очень много. Если тенанты маленькие, то c x12-x16 начинаются проблемы реально неприятные. А если большие - то, наверное, x4-8 уже потянут за собой некоторые сложности.
sbog
Pavel
у нас х3 и жопа. Благо это делал не я и ответственность не на мне
Pavel
зависит от типа приложений
sbog
Хм. У нас, конечно же, оверпровиженинга нет (лол), но я слышал, что говорили, что можно жить и на чуть большем, чем x3.
Михаил
sbog
Но зависит от того, что крутят, да.
sbog
А расскажите, коллеги, вот что - кто как у себя в облаках делает докупку нового железа под растущие нужды? Ну, т.е. нагрузка растет и становится понятно, что нужно еще купить стойку-две. Нельзя просто пойти и купить - надо и бюджет согласовать, и подождать, пока привезут, и настроить еще и т.п. - это время. Т.е. нельзя сказать "ааааа, сегодня жопа, завтра нужна стойка", потому что до завтра ее точно не привезут. Кто как делает? Начинают закупки на, скажем, 10%, прикидывая, что за то время, пока эти 10% израсходуются, все сделают? А если облаков больше одного? А если там еще аггрегатов дофига и надо по каждому отдельно следить - как следите?
Михаил
А расскажите, коллеги, вот что - кто как у себя в облаках делает докупку нового железа под растущие нужды? Ну, т.е. нагрузка растет и становится понятно, что нужно еще купить стойку-две. Нельзя просто пойти и купить - надо и бюджет согласовать, и подождать, пока привезут, и настроить еще и т.п. - это время. Т.е. нельзя сказать "ааааа, сегодня жопа, завтра нужна стойка", потому что до завтра ее точно не привезут. Кто как делает? Начинают закупки на, скажем, 10%, прикидывая, что за то время, пока эти 10% израсходуются, все сделают? А если облаков больше одного? А если там еще аггрегатов дофига и надо по каждому отдельно следить - как следите?
вот в этом месте и появляются рассказы про х3 оверпровижн)
Михаил
и про "все оверпровижонят"
sbog
Лол. Ну вечно же нельзя оверпровиженить, надо все равно железо-то покупать рано или поздно. Или все покупают, когда петух уже клюет в одно место?
Artem
А расскажите, коллеги, вот что - кто как у себя в облаках делает докупку нового железа под растущие нужды? Ну, т.е. нагрузка растет и становится понятно, что нужно еще купить стойку-две. Нельзя просто пойти и купить - надо и бюджет согласовать, и подождать, пока привезут, и настроить еще и т.п. - это время. Т.е. нельзя сказать "ааааа, сегодня жопа, завтра нужна стойка", потому что до завтра ее точно не привезут. Кто как делает? Начинают закупки на, скажем, 10%, прикидывая, что за то время, пока эти 10% израсходуются, все сделают? А если облаков больше одного? А если там еще аггрегатов дофига и надо по каждому отдельно следить - как следите?
Супер мега гига табличка в екселе с рассчетом всего на свете и корректировкой при каждом баге
sbog
Михаил