J
Надеюсь, не запутал.
Georgii
Надеюсь, не запутал.
Понял, спасибо.
Владимир
Коллеги, как правильно обновиться с Newton до Pike?
J
Коллеги, как правильно обновиться с Newton до Pike?
А как устанавливался попенстек?
Владимир
по этому гайду - https://docs.openstack.org/newton/ru/install-guide-ubuntu/
NS 🇷🇺
Коллеги, как правильно обновиться с Newton до Pike?
https://www.rdoproject.org/install/upgrading-rdo-3/ так в случае с мультиконтроллерами
NS 🇷🇺
тамже есть инфа и по одному контроллеру
J
по этому гайду - https://docs.openstack.org/newton/ru/install-guide-ubuntu/
Ну, так же точно. Брать и аккуратно поверх накатывать новые версии.
NS 🇷🇺
там конфиги перепиливать придеться
J
совсем даже не обязательно. Но у каждого сервиса должны быть заметки где написано на что именно обращать внимание при обновлении.
Dmitrii
Коллеги, а после установки extra_spec параметров для flavor какие нибудь дополнительные действия требуются для их применения?
satandyh
Товарищи, скажите есть ли возможность использовать compute node с разным значением переподписки ресурсов проца?
J
Товарищи, скажите есть ли возможность использовать compute node с разным значением переподписки ресурсов проца?
Есть возможность, но не для каждого отдельного compute, а для групп - host aggregate. https://docs.openstack.org/newton/config-reference/compute/schedulers.html https://www.ibm.com/support/knowledgecenter/en/SS8MU9_2.4.0/admin/settingresourceovercommitratios_individual.html
satandyh
Хммм. И для этого совершенно не надо с нуля ставить всё... Только отдельно настроить
satandyh
А кто-нибудь встречался с counter который бы собирал статистику по переподписки?
J
А кто-нибудь встречался с counter который бы собирал статистику по переподписки?
Ну посчитай количество ядер на всех виртуалках на хосте, подели на число ядер, вот тебе и статистика)
satandyh
Ммм... Так-то оно можно попробовать, но тут надо в счётчик
satandyh
Эххх эти вот хотелки от заказчиков(((
J
Ммм... Так-то оно можно попробовать, но тут надо в счётчик
Ну а чем они статистику собирают? Щас же почти в чем угодно можно метрики навертеть какие хошь.
satandyh
По идее предполагается, что эту хрень мы им навертеть должны и отдать через ftp. А они уже там разберутся.
satandyh
Вот сижу думаю, что можно такого им предложить, чтобы удовлетворить всем хотелкам. А у них аппетит с каждым днём только растет
satandyh
)))
satandyh
ftp?
Довольно тривиально. У заказчика свои системы мониторинга. И они собирают статистику посредством сбора файлов со статистикой за определенный промежуток времени (5 минут к примеру). Для нас надо просто закинуть файлов и описание его.
satandyh
Ща зароемся, да глянем на, что эта переделанная штука способа
satandyh
Софт заказчика не знаю и лезть в него не хочу совсем. Могу сказать только, что они там не только облачные решения мониторят но и кучу всего и типо для них так удобнее.
satandyh
Спасяб за наводку, а то б я тупил ещё долго
Dauren
Добрый день!
Dauren
у кого небуть работает блок миграция? хранилища: Ceph Openstack: mitaka OS: Ubuntu 16.04
Dauren
ошибка при блок миграции Dauren Karadauov, [07.03.18 13:37] ошибка: e 220, in __exit__\n self.force_reraise()\n', ' File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 196, in force_reraise\n six.reraise(self.type_, self.value, self.tb)\n', ' File "/usr/lib/python2.7/dist-packages/nova/exception.py", line 89, in wrapped\n return f(self, context, *args, **kw)\n', ' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 409, in decorated_function\n return function(self, context, *args, **kwargs)\n', ' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 387, in decorated_function\n kwargs[\'instance\'], e, sys.exc_info())\n', ' File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 220, in __exit__\n self.force_reraise()\n', ' File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 196, in force_reraise\n six.reraise(self.type_, self.value, self.tb)\n', ' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 375, in decorated_function\n return function(self, context, *args, **kwargs)\n', ' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 5176, in check_can_live_migrate_destination\n disk_over_commit)\n', ' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 5192, in _do_check_can_live_migrate_destination\n dest_check_data)\n', ' File "/usr/lib/python2.7/dist-packages/nova/compute/rpcapi.py", line 475, in check_can_live_migrate_source\n dest_check_data=dest_check_data)\n', ' File "/usr/lib/python2.7/dist-packages/oslo_messaging/rpc/client.py", line 158, in call\n retry=self.retry)\n', ' File "/usr/lib/python2.7/dist-packages/oslo_messaging/transport.py", line 90, in _send\n timeout=timeout, retry=retry)\n', ' File "/usr/lib/python2.7/dist-packages/oslo_messaging/_drivers/amqpdriver.py", line 470, in send\n retry=retry)\n', ' File "/usr/lib/python2.7/dist-packages/oslo_messaging/_drivers/amqpdriver.py", line 461, in _send\n raise result\n', 'InvalidLocalStorage_Remote: ast1-comp-0612 is not on local storage: Block migration can not be used with shared storage.\nTraceback (most recent call last):\n\n File "/usr/lib/python2.7/dist-packages/oslo_messaging/rpc/dispatcher.py", line 138, in _dispatch_and_reply\n incoming.message))\n\n File "/usr/lib/python2.7/dist-packages/oslo_messaging/rpc/dispatcher.py", line 185, in _dispatch\n return self._do_dispatch(endpoint, method, ctxt, args)\n\n File "/usr/lib/python2.7/dist-packages/oslo_messaging/rpc/dispatcher.py", line 127, in _do_dispatch\n result = func(ctxt, **new_args)\n\n File "/usr/lib/python2.7/dist-packages/nova/exception.py", line 114, in wrapped\n payload)\n\n File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 220, in __exit__\n self.force_reraise()\n\n File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 196, in force_reraise\n six.reraise(self.type_, self.value, self.tb)\n\n File "/usr/lib/python2.7/dist-packages/nova/exception.py", line 89, in wrapped\n return f(self, context, *args, **kw)\n\n File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 409, in decorated_function\n return function(self, context, *args, **kwargs)\n\n File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 387, in decorated_function\n kwargs[\'instance\'], e, sys.exc_info())\n\n File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 220, in __exit__\n self.force_reraise()\n\n File "/usr/lib/python2.7/dist-packages/oslo_utils/excutils.py", line 196, in force_reraise\n six.reraise(self.type_, self.value, self.tb)\n\n File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 375, in decorated_function\n return function(self, context, *args, **kwargs)\n\n File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 5225, in check_can_live_migrate_source\n block_device_info)\n\n File "/usr/lib/python2.7/dist-packages/nova/virt/libvirt/driver.py", line 5561,
Dauren
Dauren Karadauov, [07.03.18 13:37] in check_can_live_migrate_source\n raise exception.InvalidLocalStorage(reason=reason, path=source)\n\nInvalidLocalStorage: ast1-comp-0612 is not on local storage: Block migration can not be used with shared storage.\n\n']
J
у кого небуть работает блок миграция? хранилища: Ceph Openstack: mitaka OS: Ubuntu 16.04
Привет! Скинь все это на какой-нибудь pastebin, а тут лучше убери) Читать очень трудно в телеграме.
J
Dauren Karadauov, [07.03.18 13:37] in check_can_live_migrate_source\n raise exception.InvalidLocalStorage(reason=reason, path=source)\n\nInvalidLocalStorage: ast1-comp-0612 is not on local storage: Block migration can not be used with shared storage.\n\n']
И, кстати, вот тут написана причина почему у тебя не работает) блочная миграция делается только если диски виртуалок хранятся локально на compute серверах.
Dauren
J
Ну вот же! ast1-comp-0612 is not on local storage: Block migration can not be used with shared storage
Dauren
compute подключаються через ceph-client
Dauren
сам pool не монтирован
J
compute подключаються через ceph-client
Это как? Виртуалки напрямую диски в цефе хранят (RBD) или какой-то образ из RBD пула смонтирован на гипервизоре через krbd,а на нем уже файлы дисков виртуалок, типа будто в локальной фс?
Dauren
Виртуалки напрямую диски в цефе хранят (RBD)
J
Виртуалки напрямую диски в цефе хранят (RBD)
А для чего тебе тогда блочная миграция?
Dauren
чтобы перезагрузить compute мне нужно их мигрировать на другой хост
J
чтобы перезагрузить compute мне нужно их мигрировать на другой хост
Ну тогда тебе нужна просто живая миграция, а не блочная миграция. Блочная миграция - это та ж живая миграция, но с костылем для случаев когда у тебя не сетевое хранилище, а виртуалки держат диски локально на гипервизоре. То есть, сначала копируется диск виртуалки по сети, а потом уже происходит обычная живая миграция. А у тебя то все в цефе, то есть, просто мигрируешь и все)
Dauren
а соединение с дискам ast1-comp-0612@ceph#RBD при перезагрузке виртуалка не потерят соединение с диском
Dauren
?
Dauren
при перезагрузке compute
J
а соединение с дискам ast1-comp-0612@ceph#RBD при перезагрузке виртуалка не потерят соединение с диском
Нет. RBD клиентом то выступает не хостовая система, а процесс kvm (сама виртуалка). Поэтому она у тебя успешно переедет и продолжит общаться с цефом уже с нового гипервизора.
Dauren
ok спасибо проверью
J
ok спасибо проверью
Ды не за что) Ну да, какую-нибудь тестовую создай по-быстрому, да на ней проверь, если опасаешься.
Dauren
Ок
Georgii
Да, для них и из неё же берутся плавающие адреса. Но не обязательно делать эту сеть с "белыми" адресами. Можешь взять любую сеть из своей физической инфраструктуры. Провайдерские сети считаются внешними не потому что глобально маршрутизируемые адреса используют, а потому что они часть физической инфраструктуры провайдера и внутри его инфраструктуры маршрутизируются. А self-service приватные сети - они чисто внутри попенстека. ВОт примерно так)
Ещё маленький вопрос подскажи пожалуйста - в документации сеть создаётся на flat интерфейс командой openstack network create —share —external \ —provider-physical-network provider \ openstack network create —share —external \ —provider-physical-network provider \ —provider-network-type flat provider Соответственно если я деплою внешку на vlan, то надо указать —provider-network-type vlan provider и в linuxbridge_agent.ini physical_interface_mappings = provider:eth1.20 к примеру
Georgii
?
J
?
ща с телефона, не очень удобно)
J
Не надо ничо менять) А так да, тип vlan и segmentation id номер влана.
NS 🇷🇺
куда удобнее сразу на влан сетях экстернелы создавать без завязки на всякие флаты
J
куда удобнее сразу на влан сетях экстернелы создавать без завязки на всякие флаты
Кому как, так т) Если вланов дохрена, а какие когда понадобятся - хз, тут я выбираю плоскую "физическую" сеть, а поверх нее уже наворачиваю.
Georgii
куда удобнее сразу на влан сетях экстернелы создавать без завязки на всякие флаты
Так по итогу то - надо менять при создагнии сети на vlan ? ))) Если я эксетрналы на vlan завожу
J
Так по итогу то - надо менять при создагнии сети на vlan ? ))) Если я эксетрналы на vlan завожу
Делаешь как написал, только конфиг бридж агента не меняй. Думаю, так)
Georgii
внешних
Georgii
то есть можно завести все их в flat
NS 🇷🇺
нет
NS 🇷🇺
тебе через флат нужно каждй будет прописать на каждом хосте
J
а так каждый раз приятигивать настройки на каждый влан на каждый сервер... Нет уж спасибо
Речь то о том что physical network один? gkjcrbq под все провайдерские сети, а поверх него создаешь с влан инкапсуляцией.
J
или я вас, парни, не понял)
NS 🇷🇺
напишу проще
Georgii
я вообще теперь ничего не понял )))
NS 🇷🇺
у меня так и я не ебу мозг с флет сетями [ml2_type_flat] flat_networks = * [ml2_type_vlan] network_vlan_ranges = bvlan:1:4094
Georgii
у меня так и я не ебу мозг с флет сетями [ml2_type_flat] flat_networks = * [ml2_type_vlan] network_vlan_ranges = bvlan:1:4094
то есть можно так указать и задовить потом сколько угодно vlan ? Так а бридж не надо с ними мапить ? linuxbridge_agent.ini physical_interface_mappings =
NS 🇷🇺
http://i.imgur.com/jg12HBo.png
NS 🇷🇺
и вот так потом завожу сетоньки
Georgii
так а как они в потом попадают в интерфейс ?
Georgii
надо же на коп ноды vlan завести
NS 🇷🇺
bridge_mappings = bvlan:br-vlan так маплю
J
так а как они в потом попадают в интерфейс ?
Давай-ка разберемся) Тебе надо чтоб был доступ во вланы, на которые нарезана физическая инфраструктура, так?