Анатолий
в /var/log/neutron/neutron-openvswitch-agent.log только 1 запись за сегодня. 2018-05-25 17:03:37.078 7837 INFO neutron.agent.securitygroups_rpc [req-ec798698-6bc8-4a4b-b5d7-d5ac856ac401 b3934b6b96e54babbdf2c6f608880d5c ec42486884314ed0a9f74eba95c82c1b - - -] Security group member updated [u'37416318-ab33-48ef-ae4c-f1ed880b0b2d'] да все нормально как бы видимо теперь снова все создается, но вопрос в другом пока я смоделирую эту ошибку пройдет время. Был у меня значит инстанс zabbix'а недели две назад у него переполнилось место, тк он был в докере соотвественно вычистить мне его не удалось тк нужно было запустить сначало. подумал я и дай думаю сделаю ресайз другими словами изменю инстансу flavor попробовал значит сделать openstack server resize --flavor 188d450a-28fa-4f9d-b046-b39eb9828b60 86989ecd-7f46-47fb-996f-410bb9c4f943 где 188d450a-28fa-4f9d-b046-b39eb9828b60 - flavor новый 86989ecd-7f46-47fb-996f-410bb9c4f943 - инстанс мой и после симптомы проявились точно те же что и ранее при создании. винтуалка сейчас в статусе error сбросил статус на active но не помогло. меня больше беспокоит ошибки где упоминается я полагаю мне проще перезагрузить гипервизор тогда он будет считаться как мертвый и повторить перенос машины.
Анатолий
ладно спасибо вообщем за советы, помучаю сейчас заббикс если заработает, забуду об опенстеке. я туда последний месяц полтора очень редко вхожу, в последствии хочу избавится от него вовсе.
Sergei
Ребята, такой вопрос: обновления винды сейчас работает? его не заблокировал случайно роскомнадзор? а то готовлю образы винды для опенстека, а она не может скачать обнову…
NS 🇷🇺
Всё работает, сеть функционирует, доступ к инстансу есть. Хотим разобраться.
немного не туда направил, qrouter спейсы, iptables-save на компут нодах
Inna
@j52089ec7e87 @nsuvorov но всё равно спасибо)
Sergei
Сколько висит? :) мы обновляли почти сутки :)
часов 12, но дело в том что оно буквально 800 мб скачало и все
Sergei
дальше не хочет
Sergei
Из-за войны Роскомнадзора и Telegram пострадали, как известно, и другие ресурсы — и одним из них стал технический домен Microsoft, с которого качаются ISO-файлы обновления Windows и программа Media Creation Tool
Sergei
Похоже оно …
gwaewion
Знает кто: в чтиве Learning openstack high availability действительно что-то стоящее есть или там копипаст ХА гайда с сайта жопенстека?
J
Ну я, честно сказать, сомневаюсь что такие узкоспециализированные книжки по опенстеку вообще имеют смысл. Слишком быстро все меняется и довольно сложно одному человеку учесть все и уследить.
J
Опять же, двухлетней давности.
J
Все API сервисы - эт REST API, обычный stateless веб.
J
С ними делай чо хочешь.
J
Из сложного - cinder-volume (для некоторых бекэндов). Там может понадобиться pacemaker. И то не обязательно. Ну и плюс база данных кластеризованная.
gwaewion
J
Ну и про сеть аналогично) Это все техники не имеющие прямого отношения к опенстеку)
J
А в книжке по сути да, расширенная версия документации и большой набор howto разжеванных.
J
http://file.allitebooks.com/20151217/Learning%20OpenStack%20High%20Availability.pdf
Maksim
народ, а вот такое кто-то ловил? 2017-10-30T13:32:47.461019Z qemu-kvm: -vnc хх.хх.8.25:0: Failed to start VNC server: Failed to listen on socket: Address already in use но фишка в том что я сам то никаких сервисов есессно не поднимал, это сам либвирт нова.
Не хочу конечно некропостить, но тоже такое словили, compute node с нуля налита, так же как и остальные гипервизоры. Два гипервизора, в одной зоне, создаём проект с 80 инстансами, получается по 40 инстансов примерно на гипервизор, но несколько из них не создаются, что сопровождается такой же ошибкой vnc. После этого инстанс пытается создаться на другом гипервизоре, но получает два адреса и как итог не работает сеть. Если у вас получилось полечить, то буду рад совету.
J
а что там для ceph? тоже pacemaker надо?
Зачем? Нееет, в таком случае любой cinder-volume работает прост как прослойка дополнительная. Он на самом деле и не нужен, если логически мыслить, можно было бы теж функции в случае с цефом и на API возложить. Но архитектуру сервиса не менять же из-за одного цефа) Поэтому вот так. Все чо он делает - эт отдает нове libvirt secret uuid, вроде как.
Ivan
а что там для ceph? тоже pacemaker надо?
Ceph из коробки HA, ещё нужно постараться сделать его не НА
Sergey
Ceph из коробки HA, ещё нужно постараться сделать его не НА
легко, 1 mon, реплика фактор 2, через опу настроеный скраб и его приоритет, дефолтный крушмап
Sergey
Sergey
Картинка про велосипед и палку
ну это другой разговор, изначально посыл был - надо постораться, а оно все просто, но самое смешное - это просто выдержка краткая из того, как народ сэтапит ceph
Sergey
так что любителей вставить палку в колесо своему велику, когда он едет на нем - домужскогополовогооргана
Sergey
забыл добавить, денег на ssd не дали, втащука я журналы osd в озу, без дампов на диск хотя бы изредка
Pavel
Лол
Sergey
у народа до сих пор мнение, что на ceph можно сделать сторедж за бесплатно
Ivan
Ну это законодательные недоработки, не дают инвалидность долбоебам, вот они и работают, а так бы катали дотку и не строили такие системы )
Ivan
У меня у самого ceph mon x3, replica factor x2, about 100TB data
Ivan
Но я знаю что я делаю
Ivan
И почему так делаю
Sergey
у меня был ceph с вообще без репликафактора и с журналами в озу, но мне можно было пролюбить все данные
Aleksey
Именно поэтому они должны пахать в active/passive
Тогда давайте синхронизируемся, можно ли cinder-volume для ceph в active-active или нет?
gwaewion
В гайдах пишут, что нет
Georgii
А почему тогда в доках для haproxy listen cinder_api_cluster bind <Virtual IP>:8776 balance source option tcpka option httpchk option tcplog server controller1 10.0.0.12:8776 check inter 2000 rise 2 fall 5 server controller2 10.0.0.13:8776 check inter 2000 rise 2 fall 5 server controller3 10.0.0.14:8776 check inter 2000 rise 2 fall 5
Georgii
?
Georgii
Хотя к оф гайде In theory, you can run the Block Storage service as active/active. However, because of sufficient concerns, we recommend running the volume component as active/passive only.
J
Тогда давайте синхронизируемся, можно ли cinder-volume для ceph в active-active или нет?
Ну тут как. Вообще, не стоит, но и шанс что чо-то катастрофическое произойдет - мал. Из самого частого - залипание при удалении и других операциях. Щас, как понял, активно пропишиваютикацию где локальные блокировки заменяются на tooz с кластерным менеджером в качестве бекэнда. https://specs.openstack.org/openstack/cinder-specs/specs/mitaka/ha-aa-tooz-locks.html Ну а до той поры пока нормально внедрят можно в haproxy для cinder-volume указывать один активный сервер и остальные в качестве резерва.
J
А volume вот посложнее.
Georgii
А volume вот посложнее.
Ну так нарезка новых волумов через api идёт?
J
Ну так нарезка новых волумов через api идёт?
Да, апи сервисы можно в active\active)
Georgii
Да, апи сервисы можно в active\active)
Ну а работу с волумами можно по идее через vip и pacemaker?
J
Ну а работу с волумами можно по идее через vip и pacemaker?
Просто правильная конфигурация haproxy, скорее, нужна. Хотя, конечно, это не исключит полностью проблему отсутствия глобальных блокировок. Но такое может возникнуть в ситуации, разве что, когда используется несколько независимых балансировщиков.
J
Ну а работу с волумами можно по идее через vip и pacemaker?
А pacemaker нужен в таких местах где при переключении с основного на резерв надо обязательно гасить основной (чтоб наверняка удостовериться что не будет два активных сервера)
J
хотяя
Sergey
кстати, вы лучше расскажите как сеть организовываете и ha точки входа/выхода трафика
Sergey
Насколько подробно?)
да как не захарит
Sergey
просто я тут чешу репу как собирать, послдений раз тыкал труп в 2015 году, вот теперь опять предстоит
Georgii
А pacemaker нужен в таких местах где при переключении с основного на резерв надо обязательно гасить основной (чтоб наверняка удостовериться что не будет два активных сервера)
Ну можно как через haproxy, только балансировать весь трафик на одну доступную ноду, или напрямую на локальный cinder через vip, ну и pacemaker правильно настраивать
Sergey
и строить сеть на “дефолтном” нетроне я чет как-то очкую
Sergey
меня больше интересует кто как организовывает сеть для опенстека
Sergey
я все думаю opencontrail или вендорское железо
J
да как не захарит
Да ну даже хз. У меня очень маленький кластер и трафик между серверами полностью маршрутизируется, анонсы через OSPF. haproxy три штуки, они балансируют трафик между сервисами раскиданными по трем серверам. haproxy работает в каждый момент времени только один (анонсируется с лучшей метрикой) потому что у меня микротик и что-то говенно на нем ECMP работает. Не per-flow, как обещают, а будто ваще рандомно пакеты распихивает по ECMP гейтам.
Sergey
как деофлтный гейт резервируете?
Sergey
и кто в качестве него выстцупает
Sergey
меня интересуют и приват сети и публичные
Sergey
как вообще организация хождения трафика из вне организована?
J
через ECMP (на самих серверах, слава богу, в более-менее свежих ядрах работает неплохо). Просто 2 гейта в дефолтном маршруте.
Georgii
как деофлтный гейт резервируете?
Ну так смотря для чего, если для provider то на уровне маршрутизаторов с ospf сверху
Georgii
А снизу свитчи с бондами
Georgii
Используются микротики CCR1036
Елсли нет угрозу ddos то можно. При ddos у них проц ложиться
Sergey
я больше в сторону джунов
Georgii
Georgii
Ex и mx