Egor
вот и почитал про их - вауу, супер реплика, можно нафиг вырубить один сервер из кластера и все будет работать
Egor
потом ввести новый, чистый и также безболезненно встанет в строй
Aleksey
потом ввести новый, чистый и также безболезненно встанет в строй
на счёт безболезненно я бы не утверждал, будет просадка на рекавери
Egor
да у меня около 5к рпс - суммарно на фронты
Egor
мало
Egor
и вообще, гигабита то хватит? между серверами
Aleksey
короче, достаточно часто делают Openstack + Ceph. Ceph выступает бэкендом для Cinder и даже иногда для Nova-compute по RDB, также Ceph может через RGW предаставлять S3-like хранилку. Так как у людей уже есть Ceph для RBD заводить ещё одну объекнуб хранилку смысла нет
Aleksey
и вообще, гигабита то хватит? между серверами
одного нет, а вообще на счёт как сделать днище-ceph тебе лучше вот сюда @ceph_ru
Egor
значит на гигабитке не стоит строить?
Egor
а 10гбитные карты недешевые
Aleksey
Aleksey
а 10гбитные карты недешевые
сходи в @ceph_ru, там конечно могут и обложить херами, но всётаки подскажут
Egor
50 usd
тут не только в деньгах вопрос, а в целесообразности
Рамиль
50 usd
так точно
Egor
вот если в цеф воткнуть около 5тб данных, рассказать про +/-
Egor
ну и тд
Artemy
тут не только в деньгах вопрос, а в целесообразности
Отказоустойчивый сторадж на который заводится больше сотни виртуалок дешевым не бывает.
Egor
у меня не виртуалки
Aleksandr
Надо запретить на этом и на ceph каналах цифро-буквенное сочетание 1gbit
Aleksey
Если я не ошибаюсь, то на сефе хранят диски (volumes) а в свифте образы (images), не?
а что тебе мешает образа хранить в ceph или свифт как объектную хранилку предаставляться для тенантов?
Andrey
Если я не ошибаюсь, то на сефе хранят диски (volumes) а в свифте образы (images), не?
диски хранят в синдере) а образы в глансе) а дальше у тебя очень большой выбор что сделать бекендом и к синдеру и к глансу, можно и там и там воткнуть ceph
Andrey
у меня не виртуалки
если не виртуалки то swift точно не нужен, у него главный профит - интеграция с сервисами openstack
Andrey
замучаешься вырезать.
Artemy
диски хранят в синдере) а образы в глансе) а дальше у тебя очень большой выбор что сделать бекендом и к синдеру и к глансу, можно и там и там воткнуть ceph
Хранят их бакэнды а синдер и гланс это чисто оркестрация и интерфейс на эти бакэнды если уж на то пошло :-)
Egor
5 терабайт это "ни о чём".
надо же с чего-то начинать )
NS 🇷🇺
Если я не ошибаюсь, то на сефе хранят диски (volumes) а в свифте образы (images), не?
зачем поднимать swift для образов, если есть ceph? в котором так же можно хранить образа? с меньшим фактором репликации
Egor
если не виртуалки то swift точно не нужен, у него главный профит - интеграция с сервисами openstack
ну тут такое, сейчас нет виртуалок, но подумываю, может снова вернуться туда и все виртуализировать
Egor
после ээ 4 лет докеризма
Сергей
А для чего тебе OpenStack потребовался? Чего бы не обойтись каким-нибудь OpenShift + Ceph + Bare metal базы данных?
NS 🇷🇺
ща Сережа вас научит =)
Egor
а зачем нужен цеф в связке с опеншифтом?
Egor
ведь и он сам умеет во все это
Сергей
ща Сережа вас научит =)
Серёжа глядя на разные решения регулярно интересуется "а нафига" и в процессе кидания какашками улучшит собственное понимание
Сергей
ну так, зачем?
в данной связке ceph нужен сам по себе в комплекте к kubernetes для всего, что не требует высоких IOPS нагруженных баз. Внутренний он или внешний -- вопрос вторичный.
Сергей
зачем лишние сущности, если ceph универсален, самодостаточен и отлаживается в том числе решениями, которые бесконечно далеки от openstack. Тупо комьюнити больше, для opensource в проде это критично: не останетесь с проблемами один на один.
Игорь
Если я не ошибаюсь, то на сефе хранят диски (volumes) а в свифте образы (images), не?
Ceph умеет хранить образы Ceph умеет в Swift API Ceph может полностью заменить свифт хранилку
NS 🇷🇺
У меня с детства есть локальные диски
Dmitry
Всем привет, кто работал с октавией, подскажите плиз, каким параметром можно изменить домашний проект для создания виртуалок амфоры, если это возможно
Dmitry
Чтобы все амфоры создавались в отдельном не доступном пользователю проекте
Anonymous
про опенстек в злобном телекоме было?
А что именно? У нас могут быть смежные темы...
Sergey
А что именно? У нас могут быть смежные темы...
Например как в телеком живет на опенстеке...
Sergey
Живет
Anonymous
Живет
Интереснее сделать доклад как интегрировали... Впрочем это я и планирую
Anonymous
Sdn nfvi и все все все))) например на базе Cisco
Anonymous
Интеграция решения Cisco + openstack
Andrey
ACI ?
Anonymous
ACI ?
Неа
Михаил
Именно)
Ну так давай рассказ)
Anonymous
Ну так давай рассказ)
Постараюсь успеть подготовить материал)))
Михаил
https://ask.openstack.org/en/question/115200/disk-memory-usage-differs-in-mysql-and-openstack-host-show/
Михаил
Как прекрасно, когда ловишь проблему, находишь тему на SO, а там нет ответа
Я и твой кот
https://ask.openstack.org/en/question/115200/disk-memory-usage-differs-in-mysql-and-openstack-host-show/
В рассылке писали, что он заброшен. Планируют сделать редирект на нормальный SO.
Я и твой кот
Проблему то как решать)
Судя по всему, лезть в базу и руками исправить
Михаил
Судя по всему, лезть в базу и руками исправить
Ну до этого мы еще дойдем. Вопрос почему оно не синкает.
Я и твой кот
Что-то потерялось в rabbit'е видимо, когда выключали инстансы на ноде (нодах).
Михаил
Ну допустим. Однако API возвращает актуальные значения
Михаил
Так, да API возвращает кривое значение.
Михаил
Вопрос как это поправить без ручек в БД
Я и твой кот
Боюсь, никак.
Я и твой кот
Значения апдейтятся только когда шедулер стартует и убивает инстансы, афаик.
Я и твой кот
то есть там у вас запускаются и останавливаются инстансы, но значение всё равно не корректно?
Pavel
Вы помните что данные отдаются в MB и MiB
Сергей
можно ножками =)
Ну вот, сразу с козырей зашёл!
Михаил
Вы помните что данные отдаются в MB и MiB
openstack host show n17 +--------------------------+----------------------------------+-----+-----------+---------+ | Host | Project | CPU | Memory MB | Disk GB | +--------------------------+----------------------------------+-----+-----------+---------+ | n17 | (total) | 56 | 257846 | 29899 | | n17 | (used_now) | 53 | 182276 | 510 |
Михаил
ну то есть в MB