Dmitriy
Да, с деплоем все понятно. Вопрос был скорее как это живет с течением времени и как эт траблшутить.
Ascandar
еще 1 момент, у меня ceph, то что входит в состав колла, как то не взлетел, ну я не отчаялся, тупо взял ceph-ansible и все
Ascandar
траблешутить также как и обычный стек, только в докер идти надо либо все эластик логи кидать, там есть уже настройка для fluentd
Ascandar
ELK только внешний, версия 5 чет не устраивает там
Dmitriy
еще 1 момент, у меня ceph, то что входит в состав колла, как то не взлетел, ну я не отчаялся, тупо взял ceph-ansible и все
Т.е. у вас отдельно стоящий ceph-кластер? У меня - да, хотел бы рутовые ФС виртуалок ложить в ceph. Пока не понял, как это в конфиге описать.
Ascandar
да, долго мучаться не стал, взял и поставил отдельно
Ascandar
не сложно с коллой внешний ceph как оказалось настроить
Ascandar
нашел толкову доку как прилепить kolla к внешнему ceph
Ascandar
https://igene.tw/kolla-ansible-external-ceph
Yuf
да, все контейнер
А что там ? Кубер или сварм
Ascandar
обычный докер
Aleksey
а у вас синдер volume живет в контейнере?
А в чем может быть проблема?
NS 🇷🇺
да, все контейнер
FC нормально туда пробрасываются, когда запиливается диск из образа?
Yuf
обычный докер
А как решается вопрос с отказоустойчивостью
NS 🇷🇺
А в чем может быть проблема?
в пробросе FC в контейнер
Aleksey
в пробросе FC в контейнер
Понятно, у нас ceph так что видимо поэтому и не сталкивались
Ascandar
А как решается вопрос с отказоустойчивостью
несколько контроллеров и вот тебе отказоустойчивость, хотелось вмето докера кубер, но для этого есть openstack-helm, по мне как то сыроватый
Ascandar
в пробросе FC в контейнер
никаких проблем как оказалось
Ascandar
вот и выбрал коллу, там все сервисы есть
Anonymous
Alexander Ovchinnikov будет жить. Поприветствуем!
Anonymous
Anna Binshtok будет жить. Поприветствуем!
NS 🇷🇺
Anonymous
Sergey Trubach будет жить. Поприветствуем!
Nick
Добрый день! Захотел протестить блюстор на своем облаке, прикрутил его, при создании виртуалки образ пишется в пул, но нова создает машину с "binding:vif_type": "binding_failed" => получаю NovaException: Unexpected vif_type=binding_failed. Кто-нибудь может подсказать в каком направлении копать?
Pavel
казалось бы при чем тут блюстор?
Dmitry
😄
Nick
прикручиваю к этой же компуте пул от файлстора, машины разворачиваются^^
NS 🇷🇺
Паша, выйди, опять время просреь =)
Nick
я добавил его пул в уже имевшийся ключ allow rwx pool=d-vms-blue
Nick
rbd ls работает
Nick
ну и при создании тачки образ пишется туда
Nick
обновилось ядро, не подгрузился модуль openvswitch проблема решена
Pavel
Включу назад блюстор тогда )
NS 🇷🇺
обновилось ядро, не подгрузился модуль openvswitch проблема решена
:D надеюсь это не прод где ядро взяло так и обновилось само
Dmitry
Включу назад блюстор тогда )
смотри ядро не обнови
Nick
0)
Anonymous
@AleksandrKondratenko будет жить. Поприветствуем!
Danila
А у никого нет проблем с потерей neutron flows при использовании kolla-ansible ? Похоже на https://bugs.launchpad.net/neutron/+bug/1794991
Anonymous
Der Nedimon будет жить. Поприветствуем!
Anonymous
@vectorman74 будет жить. Поприветствуем!
Anonymous
@begizardov будет жить. Поприветствуем!
Anonymous
Dmitriy будет жить. Поприветствуем!
Anonymous
@BHE3AnHO будет жить. Поприветствуем!
Anonymous
@calivm будет жить. Поприветствуем!
Anonymous
@tsysan будет жить. Поприветствуем!
NS 🇷🇺
эйчар от бога
Aleksandr
Старичок... Ростов - папа и дальше по списку
Anonymous
@enamchuk будет жить. Поприветствуем!
Jaroslav
Курю Ironic и Baremetal as a service. Пишут "Also, Ironic does not support multiple tenants; all of the bare metal nodes are on the same network, even if they’re owned by different tenants. Therefore, a user having access to one bare metal node is able to connect to any other bare metal node." Существуют ли какие то палки и костыли, чтобы Bare metal tenants не видели друг друга? Разные VxLAN можно сделать теоритически.
J
Курю Ironic и Baremetal as a service. Пишут "Also, Ironic does not support multiple tenants; all of the bare metal nodes are on the same network, even if they’re owned by different tenants. Therefore, a user having access to one bare metal node is able to connect to any other bare metal node." Существуют ли какие то палки и костыли, чтобы Bare metal tenants не видели друг друга? Разные VxLAN можно сделать теоритически.
Так что, простор то широкий. Нейтрон и айроник нормально вместе работают, вопрос к свитчам. Если они у тебя умеют vxlan - отлично, сделаешь vxlan деление для разных проектов. Если свитчи только вланы умеют, ну, значит будет vlan per tenant.
Jaroslav
Cisco catalyst, они умеют vxlan.
J
Cisco catalyst, они умеют vxlan.
Ну а для каталистов и с драйверами все довольно хорошо, вроде. Не знаю, правда, есть ли там щас поддержка vxlan)
Anonymous
@karavan750 будет жить. Поприветствуем!
Anonymous
V будет жить. Поприветствуем!
Nick
Кто-нибудь пробовал использовать erasure coded пулы на блюсторе для виртуалок?
Pavel
ох, лучше один раз попробовать, чем сто раз услышать )
Pavel
пробуйте
Pavel
но вроде какие-то чехи или поляки написали свой платный модуль для кодинга, который якобы работает гораздо быстрее штатных, но его, как принято, ни кто и ни когда в глаза не видывал
Nick
А может знаете какие-нибудь хорошие методики тестирования производительности виртуалок на разных типах хранилищ? Я думаю пока создать пару машин на filestore, bluestore и ec_bluestore, а потом просто писать что-нибудь на диск во много потоков
Dmitry
fio
Dmitry
фио это утилита, а вопрос был про методики. понедельник
Pavel
фио прям хорошо, ток с профилями разберитесь хорошо
Pavel
если не понимаете что хотите, то фио не поможет
Nick
я пока ориентируюсь на эту статью https://habr.com/ru/post/154235/
J
И чтоб как следует понять надо прям с десяток разных тестов. Еще б рекомендовал парсить вывод или делать отчеты и из них строить графики.
Aleksey
вы ешё вот эту статью вспомните http://gudok.xyz/sspar/
Михаил
Mr rang_a
я пока ориентируюсь на эту статью https://habr.com/ru/post/154235/
Амарао, ггг. Ну короче на том же хабродне жбанкова статья
Nick
нашел, спасибо
Dmitry
А может знаете какие-нибудь хорошие методики тестирования производительности виртуалок на разных типах хранилищ? Я думаю пока создать пару машин на filestore, bluestore и ec_bluestore, а потом просто писать что-нибудь на диск во много потоков
Методика следующая - поднимай кучу виртуалок каким-нибудь терраформом с фио сервером, из одного места запуска фио клиент к куче хостов. профили тестирования - есть стандартный - 4К блок, потоки (1,8,16,32), директы, групрепортинг - чтобы сравнивать а и б - отлично подходит. потом есть в интернете куча профилей имитирующие разную нагрузку - БД, веб-сайты и пр