Dorian
iperf 3 ошибки таки показывает
Fox
ну очень не плохо
J
Ваще збс, я б сказал.
NS 🇷🇺
а 10Г интов нет, чтобы там затестить?
Илья
какая разница, это же тест на ноду?
Ilya
а зачем последний, при такой связке?
Для разных демонов разные комбинации
Ilya
А keepalived как минимум чтобы VIP по контроллерам двигать по необходимости
NS 🇷🇺
а чем пейсмейкер тут не угодил?
Ilya
А почему так?)
Например для neutron-server pacemaker нафик не нужен
J
Но почему именно pacemaker? Какие фичи в нем есть такие особенные? Если что, я им в жизни не пользовался, интересно ж)
Sergey
кипаливд хотябы менее вырвиглазно настраивается
Denis
А у нас ospf
Denis
И 🐦 на каждой ноде которым это нужно
Anonymous
А у нас ospf
А можно чуть подробнее описать схему?
Denis
тачки анонсят айпишничек висящий на лупбеке, пропал анонс пропал трафик на машинку, сходимость 300мс
Denis
машинки из пула все анонсят один ип
Anonymous
Т.е. Получается anycast, я верно понял?
Anonymous
quagga?
Uncel
судя по птице, берд
Anonymous
не знаю что такое Берд :(
Uncel
http://bird.network.cz/
Anonymous
Нагуглил конечно уже
Anonymous
Но дела с этим не имел
Anonymous
Спасибо
Anonymous
Подумаю над реализацией такой же схемы у себя. Выглядит как хорошая идея
Илья
У берд можно и bfd сверху накинуть, будет 50-100ms на переключение
Anonymous
exabgp
Илья
Оно не работает с локальной таблицей маршрутизации, чистый rr
J
Оно не работает с локальной таблицей маршрутизации, чистый rr
И вообще не для маршрутизации, в общем то делался.
Andrey
https://www.youtube.com/watch?v=eXDB8mwxe4w
Andrey
тоже ospf
Sergei
но там есть нюансы. в случае если топология сети развесистая, балансинг будет не ровным. и контроль/мониторинг/аккаунтинг не самый простой. и актив-чеки хрен прикрутишь. поэтому обычно я предпочитаю иметь более умный LB (nginx/haproxy/ipvs/etc.), трафик до которого ходит через ECMP, а не жить только на ECMP. плюс в больших сетях и с глупыми железками можно заиметь боль, если маршрутов будет слишком дохера.
Denis
Ospf это что бы обеспечить за энтрипойнта в днсе
Denis
Это не отменяет хитрый бэлэнсинг если он нужен
Radik
Коллеги, сори за офтоп
Radik
У нас есть спецы по opennebula?
Sergei
@SinTeZoiD
Nikita
Привет Всем. Такой вопрос. Последние время стало появляться ошибка с кодом 129, ругается на viostor, далее по данным «Был произведен возврат к устройству \Device\RaidPort0.» Система виртуализации OpenStack 2.3. Драйвера на виртуальных машинах обновлены до последних.
Михаил
@SinTeZoiD
Хер тебе!
Radik
Хер тебе!
А мне? )))
Михаил
А мне? )))
@RomanBogachev
Михаил
я его пытал, когда были вопросы)
Михаил
Ты решил покрыть все KVM продукты?
Radik
Нет. У меня проект есть, где нужно понять как работает opennebula. Как это в OS реализовать я знаю, а есть ли такая возможность в opennebula, понять не могу
Radik
Спасибо!
Radik
Ты решил покрыть все KVM продукты?
Судя по количеству запросов в инете по слову opennebula, нет смысла по ней делать курсы ))
Radik
Херово она работает
К сожалению, без вариантов тут
Nikita
Кажется, вопрос никто не понял толком.
дайте водные данные, я по пробую описать так что бы поняли.
Dorian
Херово она работает
А чём херовость? У меня полтора десятка гостей + цеф под ней
citius
народ, ловлю какой-то странный плавающий баг, может кто сталкивался? рандомно не запускаются виртуалки, в логе nova-conductor типа но валид хост фаунд. вот весь лог что оно выдает: http://pastebin.ru/4xspink4 при этом вторая попытка, как правило, с успехом ) в остальных логах в этот момент чет нифига вообще.
Dorian
Прекрасный врапер для KVM
Михаил
Михаил
ограниченность сетевых плагинов, из коробки неудобно взаимодействовать с контекстом, управление ceph томами сделано как говно и от чего больше всего горит - невозможно поменять какие либо настройки VM кроме cpu и ram неудобное управление дисками (попробуй создать именной диск в ceph через nebula например)
citius
да, запущено три экземпляра на контроллерах
citius
А MQ серверов сколько?
три ребита в кластере, в URL вписаны все три, по инструкции.
Anonymous
А в логах nova-scheduler’ов что?
Андрей
три ребита в кластере, в URL вписаны все три, по инструкции.
Провеь состояние rabbitmq класстера. Его легко развалить
citius
А в логах nova-scheduler’ов что?
упс, нашел 502 на одном скедулере.
citius
2017-10-13 10:09:41.595 1117 ERROR nova.scheduler.client.report [req-96c42f6b-ffd4-452b-b78f-dc9709a12b23 659515bf2a874232a7b2358f60a3882e bd3d25a5b17f4f5ca7c75273606ebb23 - - -] Failed to retrieve filtered list of resource providers from placement API for filters {'resources': 'DISK_GB:11,MEMORY_MB:2048,VCPU:2'}. Got 502: <html>
citius
placement значит в 500 уходит. да, щас порою его. что за хрень.
citius
они у меня под uwsgi + nginx, и там вроде как все ровно в логах ) мля
citius
точнее нжинкс ругается нет-нет что uwsgi не отвечает. но uwsgi судя по его логу вполне живой.
citius
Не нашлась причина проблемы?)
Неа. Рестартнул uwsgi на том узле. Пока вроде не проявляется (но это не точно). :(
citius
У тебя тоже проявляется?
J
У тебя тоже проявляется?
Нет. Правда тот Pike что я у себя на ноуте раскатал что-то похожее мне демонстировал для nova-api. Тож мозги ебал пока не перезапустишь.
NS 🇷🇺
да в окате тоже переодически подзаебывал плейсментом
J
Честн сказать, так и не понял на кой ляд отделили еще и placement-api. Но видать отделение бесследно не прошло.