J
спасибо
Но, кстати, интересный косяк. Спасибо что принес.
Danila
Но, кстати, интересный косяк. Спасибо что принес.
пойду патч ставить, и проверять )
Danila
Если кратко, то после краша не хватает прав в пуле сефа на блеклист клиента. Их почему-то нет, скорее связанно с апгрейдом сефа.
Да. ceph auth caps client.nova-compute mon 'allow r, allow command "osd blacklist"' osd 'allow rwx' - решило проблему. Проверил на 10 вм и на двух гиперах, с жетским отключением элва. После включения вм - все в работоспособность состоянии.
Dmitry
проврьте ceph логи qemu клиентов после этого на предмет ошибок типа access denied
Dmitry
Коллеги, доброй ночи. Версия - Ocata - никто не сталкивался с тем, что при unshelve виртуалки скедулер ведет себя странно и при расчетах прибавляет requested значения (обратил внимание только на free_ram и instances) в host_state и начинает capabilities хостов считать уже с новыми значениями? 🙂
Andrey
Нет. Но чем-то проблема напоминает скедулинг в ~icehouce, который не учитывает уже занимаемые виртуалкой ресурсы (заметно при одном доступном компуте).
Anonymous
@CP_ZDEC будет жить. Поприветствуем!
Ruslan
/report
Aleksandr
/report
J
Хорошая попытка, товарищ майор!
Ilnaz
/report
UserHost
Ребята, вопрос про designate dns, какие он дает преимущества от встроенного модуля openstack? PTR record можно прописать без designate?
Inna
Ребята, вопрос про designate dns, какие он дает преимущества от встроенного модуля openstack? PTR record можно прописать без designate?
Позволяет пользователям рулить своими зонами и птр, в горизонте например есть нормальный плагин
Pavel
В чем смысл бота?
Anonymous
@serg_koryagin будет жить. Поприветствуем!
Victor
коллеги, подскажите, а есть ли у кого-то опыт\знания про cinder volume HA? теги что-то вроде tooz, zookeeper.. просто сколько не гуглю, складывается впечатление, что это все еще в разработке. блюпринты есть давным давно, тонна наработок тоже есть, а законченного, или как минимум, описанного решения найти не могу
Victor
как раз вопрос как синдер с tooz'ом сдружить 🙂
J
как раз вопрос как синдер с tooz'ом сдружить 🙂
А он же, как я понимаю, и так уже ипользуется, но с лок файлами в качестве бекэнда.
J
Эт из моего lib/python2.7/site-packages/cinder/coordination.py
Victor
ага, понял, спсаибо! буду тестить
J
ага, понял, спсаибо! буду тестить
Расскажи потом обязательно. Или вместе чо-нить глянуть можно. Я все хотел поковыряться, но то лень то другие дела)
Yuf
UserHost
Позволяет пользователям рулить своими зонами и птр, в горизонте например есть нормальный плагин
А без него не получается управлять днс записями, without designate zone? Просто возник вопрос ,зачем он нужен если без него и так получается прописать ptr record, srv records
J
Да, верно
Ну эт то же самое что xml конфиги в либвирте писать руками и ovs порты настраивать. C designate у тебя и удобный веб интерфейс и cli есть чтобы записи добавлять, к тому же, A и PTR записи автоматом для neutron портов можно прописывать.
J
Это в первую очередь не для операторов openstack, а для пользователей в проектах. Завел ты, скажем, подразделению какому-то проект, вот пусть они сами и прописывают себе записи и чо хотят делают. А тебя уже дергать не будут)
J
Ну или если публичное облако, то тут клиент уже сам рулит своими записями.
J
Опять ж, хорошо.
UserHost
Ну эт то же самое что xml конфиги в либвирте писать руками и ovs порты настраивать. C designate у тебя и удобный веб интерфейс и cli есть чтобы записи добавлять, к тому же, A и PTR записи автоматом для neutron портов можно прописывать.
И по фунциональности тоже все поддерживает, что и ручками пишем?! Благодарю за разъяснения, попробую понять где его применить. Поскольку начальство просит изучить и внедрить)) Жаль нет подробного списка сравнения,некий comparison chart как у вендоров сетевого оборудования
Anonymous
@AndrewBest будет жить. Поприветствуем!
J
Ох, посоны, чо-то не пойму куда смотреть) nova-api через раз возвращает на service list то нормальный список, то список где сервисы продублированы по два раза, с одними и теми ж id и uuid.
Andrey
--debug не помогает? Вип не переезжает между операциями (отвечает один и тот же nova-api)?
J
В базе посмотрел, записей дублирующих друг друга нету.
J
А, все, пока не ломайте голову, ребята. Щас время раздачи пиздюлин, кажется, будет)
Andrey
С интересом ждем новостей)
J
Ну чот не)
Andrey
Ну чот не)
Не расскажешь или не локализовал?
NS 🇷🇺
Я удалял все из базы в паре таблиц и рестартил службы стека
NS 🇷🇺
Такая фигня была при обновлении с окаты на пайк
J
Кароч, дело, позоже, в том что я случайно добавил четвертый кролик в инфраструктуру при последнем расширении. И вот какаое дело, убираю его из конфигов nova-api-os-compute и норм.
J
Подробнее ща уже не расскажу, ибо контейнер тот удалил. Если кто-то пояснит почему так, будет круто.
Andrey
Стеканы, taas кто-нибудь пробовал?
Andrey
https://github.com/openstack/tap-as-a-service/tree/stable/queens
J
Стеканы, taas кто-нибудь пробовал?
Выглядит полезно, спасибо)
Denis
Привет 👋! Подскажите пожалуйста, как расчитать итоговую емкость ceph-a? Не могу что-то нагуглить. На storage-ноде хочется поставить 12*8 ТБ
Andrey
Выглядит полезно, спасибо)
Я сам себе хочу принести, бизнес требует, но перед тем как углубляться в тесты хотелось бы услышать истории о использовании от реальных людей. Насколько я вижу проект всё еще обособлен от нейтрона, и это меня сильно напрягает
Andrey
Чего й то?
Dmitry
Чего й то?
Боюсь представить, как он синтегрируется в эту махину по имени нейтрон :) как все это будет трэкаться, синкаться...
J
На трех 😊
Вот у тебя три сервера, в каждом 12 * 8 Тб? Сразу вот чо скажу, 8Тб диски это уже плохая идея.
J
Они слишком медленными будут выходить. 2-4Тб - хороший размер.
Denis
А если поставить 2"400 гиг ссд нвме кеш?
J
А если поставить 2"400 гиг ссд нвме кеш?
Ну все равно, конечно, нежелательно, но если у тебя уже есть те диски, то, конечно, хороший вариант. Но только если делать bcache, без цефовского cache tier и без модных рейдовых наворотов.
J
Итоговая емкость в твоем случае будет 12*3*8 = 288Тб А там уже все зависит от того какие пулы и как будешь создавать. В классическом случае - с трехкратной репликацией просто дели на три. Если будешь использовать erasure coding, там будет зависеть от соотношения полезных данных к EC кодам.
J
Резервирование нужно конечно. Рэйд0 не привлекает 😊 А какая степень EC имеет смысл?
Ну там по-простому считается. Берешь два числа. Первое - количество кусков на который будет резаться объект при записи, второе - количество кодовых кусков. И вот их то количество это, считай, количество дисков которые можно потерять без потери данных.
J
Допустим 7\5 - 7 кусков на объект, выдерживает потерю 5 osd.
J
В примере выше избыточность будет 41,7 процента где-т) Количество кусков с данными делишь на общее количество кусков, и кодовых и с данными. То есть 7/12. ну и так далее.
J
Так что, щас не заморачивайся, мне кажется, предварительными расчетами полезной емкости. По ходу разберешься и подберешь оптимальную схему хранения. Тем более, всего три сервера.
Denis
Ок, большое спасибо за пояснения!! 😊😊
Andrey
А в чем смысл?
порт мирроринг
J
@ceph_ru если что )
так там хуями накормят и расскажут что на трех серверах нельзя)
Михаил
порт мирроринг
Это я прочитал. Пытаюсь понять зачем оно надо)