NS 🇷🇺
вопрос зачем, а главное зачем
затем, что в кровавом энтерпрайзе ты приходишь и спрашиваешь говножелезо на лабу, тебе говорят железа нет, но есть варь
NS 🇷🇺
NS 🇷🇺
хотя это уже пройденный этап жизни, зато не страшно жить в современной РФ после такого
NS 🇷🇺
Про железо временно можно забыть
ой да ладно, ща PIV на авито соберем =)
Vyacheslav
ой да ладно, ща PIV на авито соберем =)
Пользуясь случаем продам XEON ^_^
Artemy
Говорят опенстек может менеджить вмварь...
Vyacheslav
Говорят опенстек может менеджить вмварь...
Я всё жду когда там в зелёном банке такое начнётся 😄
NS 🇷🇺
Говорят опенстек может менеджить вмварь...
и даже работает. Вместо клауд директора пользуют
NS 🇷🇺
Пользуясь случаем продам XEON ^_^
Погоди, самому пригодиться, ипотеку им закроешь
Vyacheslav
А в таком случае какие плюсы от такого подхода? 🙂
Vyacheslav
Погоди, самому пригодиться, ипотеку им закроешь
Для этого есть мак, а XEON сразу на против кремля купить квартиру 🙂
NS 🇷🇺
А в таком случае какие плюсы от такого подхода? 🙂
не платить лицензию за клауддиректор 😄
NS 🇷🇺
Для этого есть мак, а XEON сразу на против кремля купить квартиру 🙂
хорошо живете вы в своих магнитах, с размахом
Vyacheslav
не платить лицензию за клауддиректор 😄
За неё и так можно не платить с 24/02/2022
NS 🇷🇺
За неё и так можно не платить с 24/02/2022
это начали использовать еще до великой даты
John Roe
Annemarie Ginnie: user has been CAS banned
Ilya
Говорят опенстек может менеджить вмварь...
Можно, но некоторое время назад глядели на это и очень грустили. И при первой возможности отказались. Может сейчас круче...
🔞🅱️🅺
это начали использовать еще до великой даты
но только не все, а к кому Варя не соизволит дойти ) Т.е. мелочь всяческая )
Maksimus Ulibikus
Всем привет. Установил DevStack. Пробую подружить OS с неким стареньким модулем биллинга. Ситуация в том, что в модуль биллинга зашит URL :5000/v3/auth/tokens?nocatalog В логах модуля это выглядит так: Apr 6 06:07:24 [8705:1] libmgr TRACE Evaluate path = '/doc/processingmodule/url' Apr 6 06:07:24 [8705:1] libmgr TRACE Evaluate path = '/doc/processingmodule/login' Apr 6 06:07:24 [8705:1] libmgr TRACE Evaluate path = '/doc/processingmodule/password' Apr 6 06:07:24 [8705:1] libmgr TRACE Evaluate path = '/doc/processingmodule/domain' Apr 6 06:07:24 [8705:1] processing DEBUG openstacktools.cpp:1078 URL: 'http://10.10.84.135:5000/v3' Apr 6 06:07:24 [8705:1] processing DEBUG openstacktools.cpp:1079 Request: 'auth/tokens?nocatalog' Apr 6 06:07:24 [8705:1] processing DEBUG openstacktools.cpp:1080 Request params: '{ "auth" : { "identity" : { "methods" : [ "password" ], "password" : { "user" : { "domain" : { "name" : "Default" }, "name" : "admin", "password" : "qwerty321" } } }, "nocatalog" : true } } ' А в DevStack из коробки API Indentity доступен по адресу http://10.10.84.135/identity/v3 Block Storage http://10.10.84.135/volume/v3/53b6f255769542f48f02f45376140253 Compute http://10.10.84.135/compute/v2.1 Compute_Legacy http://10.10.84.135/compute/v2/53b6f255769542f48f02f45376140253 Identity http://10.10.84.135/identity Image http://10.10.84.135/image Network http://10.10.84.135:9696/ Placement http://10.10.84.135/placement Volumev3 http://10.10.84.135/volume/v3/53b6f255769542f48f02f45376140253 Как бы мне понять URL с http://10.10.84.135/identity на http://10.10.84.135:5000/v3/?
Maksimus Ulibikus
Хотя наверно проще изменить URL в модуле, чем в ОС так как URL http://10.10.84.135/identity похоже привязан ко всем модулям ОС
Maksimus Ulibikus
Но может перед установкой DevStack в файле local.conf достаточно будет добавить некий параметр? Сейчас у меня в local.conf: [[local|localrc]] ADMIN_PASSWORD=qwerty321 DATABASE_PASSWORD=$ADMIN_PASSWORD RABBIT_PASSWORD=$ADMIN_PASSWORD SERVICE_PASSWORD=$ADMIN_PASSWOR
Анатолий
Добрый день. "I'm totally new to openstack", как говорится. Помогите, пожалуйста, понять, есть ли варианты использования кластерных FS, а-ля vmfs в vSphere? Если нет, то почему? Нет достаточно стабильных и скалируемых FS (например, с GFS2 вопрос отпадает на лимите 16 нод), или, возможно, другие причины?
Dmitry
есть манила, которая может вам привести в вм nfs =)
Анатолий
Вам эту кластерную ФС внутрь ВМ или под диски ВМ?
я имел в виду презентацию блочного устройства нескольким гипервизорам для организации общего хранилища для размещения vm
Илья | 😶☮️🐸
ceph ворк
Анатолий
ceph ворк
меня пока интересует не RAIN, а подключение вендорных массивов блоком (fc/iscsi/etc)
Dmitry
я имел в виду презентацию блочного устройства нескольким гипервизорам для организации общего хранилища для размещения vm
для этого есть куча бекендов опенстек это фреймворк для построения облаков разной сложности. если вам нужно где то распологать диски - у вас есть куча вариантов подключения различных бекендов от классических схд, до sds типа цефа
Dmitry
отвечает за это cinder (компонента опенстека) и в доке можно найти матрицу совместимости схд с циндером
Илья | 😶☮️🐸
всё отдельными драйверами рулится
Dmitry
https://docs.openstack.org/cinder/rocky/reference/support-matrix.html она справделива для роки, думаю можно поискать посвежее
Анатолий
https://docs.openstack.org/cinder/rocky/reference/support-matrix.html она справделива для роки, думаю можно поискать посвежее
я как раз об этом: Multi-Attach Support Status: optional. Notes: Vendor drivers that report multi-attach support are able to make one volume available to multiple instances as once. It is important to note that a clustered file system that supports multi-attach functionality is required to use multi- attach functionality otherwise data corruption may occur.
Анатолий
реализация этой кластерной fs ведь не драйвером конкретного массива решается
Dmitry
для использования дисков вм не нужна кластерная фс
Dmitry
диски клиентские будут представлять в случае классической схд отдельно нарезанные и презентованные по iscsi луны
Dmitry
в случае с варью - это будет один лун, выставленный на все гиперы и поднятной поверх луна - кластерной фс, если я ничего не путаю
Artemy
Да
Анатолий
диски клиентские будут представлять в случае классической схд отдельно нарезанные и презентованные по iscsi луны
вот именно, что без кластерной фс презентовать один лун нескольким гипервизорам нельзя в виду возможности коррапта данных
Dmitry
вот именно, что без кластерной фс презентовать один лун нескольким гипервизорам нельзя в виду возможности коррапта данных
ну вот поэтому клиентские диски презентуются по другому - каждый диск - отдельный лун
Dmitry
и презентуется на один гипер
Анатолий
ну вот поэтому клиентские диски презентуются по другому - каждый диск - отдельный лун
как в таком случае отрабатывается отказ гипервизора с точки зрения файловера vm?
Artemy
вот именно, что без кластерной фс презентовать один лун нескольким гипервизорам нельзя в виду возможности коррапта данных
Возьмите cinder. У вас каждый диск будет отдельным луном который используется своей вм. Никаких проблем с конкурентностью не будет
Dmitry
как в таком случае отрабатывается отказ гипервизора с точки зрения файловера vm?
сама варя это не рекомендует использовать для +/- нагруженных вм - дублирования памяти, инструкций и прочее
Dmitry
я наверное перепутал с фолт толеранс - когда два инстанса подняты?
Dmitry
что не рекомендует?)
я возможно перепутал, да. но в случае фейловера - какая проблема? ушел гипер, диск вполне переподключился к другому гиперу, где поднялась вм
Анатолий
всем спасибо за ответы, буду дальше копать
kn
как в таком случае отрабатывается отказ гипервизора с точки зрения файловера vm?
том на дисковом массиве будет переподключен выжевшей compute-ноде, на которой будет перезапущена ВМ
lolwww
никак. только миграция и перезапуск
ну масакари может сделать nova evacuate
Анатолий
я возможно перепутал, да. но в случае фейловера - какая проблема? ушел гипер, диск вполне переподключился к другому гиперу, где поднялась вм
пример: vm запущена на гипервизоре 1, на vmfs томе, который презентован гиперу 1 и гиперу 2. гипер 1 отказывает, vm перезапускается на гипере 2, т.к. гипер 2 имеет доступ к общему vmfs тому. в случае опенстека, когда лун презентован только одному гипервизору, такой подход, очевидно, не работает.
Анатолий
ну масакари может сделать nova evacuate
вот, видимо, в эту сторону и нужно читать, спасибо
kn
в случае vmfs это один большой большой том, где куча виртуальных дисков
Dmitry
пример: vm запущена на гипервизоре 1, на vmfs томе, который презентован гиперу 1 и гиперу 2. гипер 1 отказывает, vm перезапускается на гипере 2, т.к. гипер 2 имеет доступ к общему vmfs тому. в случае опенстека, когда лун презентован только одному гипервизору, такой подход, очевидно, не работает.
ну вот компоненты опенстека и обеспечивают переподключение на новом гипере. гипер ушел вм как то переехала (например ручной эвакуацией) при запуске на новом гипере - том переподключится к новому гиперу
kn
в случае cinder - один диск ВМ - это один том на массиве
lolwww
автоматику перепрезентации решает cinder?
автоматика детекта фейлувшего гипервизора - масакари. которая стартанет процесс эвакуации вм (либо его можно вручную стартовать)
Dmitry
автоматику перепрезентации решает cinder?
нова + циндер, НО! если гипер ушел - автоматом никто в стоке вашу вм спасать не будет, тут нужен условно сторонний сервис типа массакари, либо ручками отправить эвакуацию
Dmitry
так что ХА из коробки тут нет
Анатолий
понял, буду в эту сторону читать, подход действительно от варного отличается
Dmitry
ну варя это коробка - опенстек это фреймворк =)
Oleg
пример: vm запущена на гипервизоре 1, на vmfs томе, который презентован гиперу 1 и гиперу 2. гипер 1 отказывает, vm перезапускается на гипере 2, т.к. гипер 2 имеет доступ к общему vmfs тому. в случае опенстека, когда лун презентован только одному гипервизору, такой подход, очевидно, не работает.
cinder драйвер и у вас каждого volume созданного openstack будет нарезан отдельный маленький лун. Лучше посмотрите конкретную реализацию драйвера cinder для массива, который вы используете, некоторый вопросы сразу отпадут) https://github.com/openstack/cinder/tree/master/cinder/volume/drivers
NS 🇷🇺
так что ХА из коробки тут нет
А нужен ли. Когда же облака уже станут облаками. Умерла вм да и х с ней
Dmitry
А нужен ли. Когда же облака уже станут облаками. Умерла вм да и х с ней
ну клиенты вари чаще всего не совсем умеют именно в облака, да и српаведливости ради много софта обычного ентерпрайзного не умеет в ха на уровне софта
kn
А нужен ли. Когда же облака уже станут облаками. Умерла вм да и х с ней
когда все будет в кубере и не нужен будет openstack
NS 🇷🇺
когда все будет в кубере и не нужен будет openstack
я это уже последние лет 5 точно слышу