Михаил
да, сущности, но тут у тебя нет ребилдда всего кластера при падении OSD
Mark ☢️
В твоем описании получается что оно корраптит массив
Линус и говорит — что те кто используют O_DIRECT должны аюсолютно чётко представлять шта они вобще делают
Михаил
а что страшного в ребилде?
когда у тебя кластер забит, то он не очень приятен)
Mark ☢️
когда у тебя кластер забит, то он не очень приятен)
а когда меняешь диск, можно подумать, рэйд типа не тормозит...
Михаил
ну то у тебя тормозит один OSD
Михаил
а так весь кластер)
Mark ☢️
а так как данные размазаны равномерно по цефу, то обязательно попадется чтонть именно на твоем осд.
Mark ☢️
а так весь кластер)
а вот и не весь!
Mark ☢️
а вот и не весь!
хотя есть необльшой нанопрофит — в рэйде при синхронизации не занимается полоса пропускания в сети хранилища
Roman
http://lkml.iu.edu/hypermail/linux/kernel/1610.1/01395.html
Mark ☢️
43 files changed, 1563 insertions(+), 1071 deletions(-)
kay
Кто-нибудь работал с rackspace private cloud?
Nick
я мигрировал с него клиентов к себе :)
kay
по сути это тот же openstack?
Nick
снаружи (в API) это тот же Openstack
kay
Я тут пытаюсь довольно банальную задачу решить. Час потратил. Задача: из командной строки задать URL для образа и скачать этот URL в openstack. Большинство мануалов для старой версии, потому пришлось немного повозиться с параметрами. Новая версия, которая не сохраняет образ в кэш: $ glance image-create --name "Ubuntu 16.04 LTS - Xenial Xerus - 64-bit - Cloud Based Image" --visibility private --container-format bare --disk-format qcow2 # get the image id from output $ glance location-add --url https://cloud-images.ubuntu.com/xenial/current/xenial-server-cloudimg-amd64-disk1.img ${IMAGE_ID} Старый API, который позволяет сохранить образ в кэш: glance --os-image-api-version 1 image-create --name "Ubuntu 16.04 LTS - Xenial Xerus - 64-bit - Cloud Based Image" --is-public false --container-format bare --disk-format qcow2 --copy-from https://cloud-images.ubuntu.com/xenial/current/xenial-server-cloudimg-amd64-disk1.img Вопрос. Как в V2 API заставить openstack скачать данные?
kay
а есть ли смысл поднимать flannel на openstack для k8s? или можно разрулить средствами neutron?
Михаил
а ты что сделать то пытаешься? magnum запустить?
kay
зарулить все docker контейнеры в одну сеть.
kay
желательно конечно разграничить доступ между k8s namespace'ами
kay
я так понимаю надо для этого kuryr использовать?
Михаил
Уф, я боюсь в этом чате ты первый, кто запускает k8s в опенстеке
Михаил
OpenStack Russia Группа русскоговорящего сообщества OpenStack. Обсуждаем все про OpenStack, от использования до инсталляции, и от переводов до отправки патчей в апстрим. https://telegram.me/openstack_russia
Михаил
Попробуй у них спросить
Dmitry
кожанный крепкий чехол для яиц этому господину
Михаил
Только когда запустишь всё это не забудь нам рассказать
Михаил
Мне это через пару месяцев тоже внедрять
Anonymous
жалко тут нет никого, кто redhat openstack в россии использует
Anonymous
В чате выше спроси
уже спрашивал как то, все redhat не любят ☹️
Sergei
у этого господина яйца и так достаточно крепки, без чехла.
Sergei
:)
kay
ну если flannel запускать, то двойной overlay получится. если его контролировать, то еще и calico впиливать. почему бы не использовать neutron, где уже всё искоробки есть
kay
есть простой вариант с dumb-l2.
а оно security groups поддерживает?
Sergei
нет, конечно.
kay
тогда буду курить курилку
Sergei
Просто в k8s сеть сама по себе пиздец
лолшто? в нем нет сети как таковой.
Михаил
лолшто? в нем нет сети как таковой.
эм, а куча ебалы с iptables, openvswitch и прочее говно? или это openshift накручивает? я просто чистый k8s не ставил
Sergei
эм, а куча ебалы с iptables, openvswitch и прочее говно? или это openshift накручивает? я просто чистый k8s не ставил
чистый k8s ты можешь запустить поверх чего угодно. хоть linux-bridge, в который вставлен физический eth в одну общую L2-сеть.
kay
а кто пояснит, openvswitch это замена neutron или он дополняет его?
Sergei
openvswitch - это нижележащий драйвер для neutron
kay
я только вчера начал разбираться с openstack. так что возможно многие вопросы глупыми покажутся. neutron по умолчанию работает с openvswitch?
Sergei
ну канонический сетап такой, что используется openvswitch. так-то вообще вариантов много. можно и calico подсунуть.
kay
k8s умеет работать с openvswitch. в чем тогда преимущества kuryr?
Sergei
не знаю даже, что это такое. лично мне идея запускать k8s поверх openstack кажется странной. вариант наоборот мне нравится больше :)
kay
расклад такой. необходимо изолировать test / prod. openstack поднимает два окружения, в них спокойно крутятся k8s с приложениями. изоляция на уровне VM. если k8s использовать как систему для развертывания openstack, то смысла в openstack нет, когда у тебя уже построена конфигурация, которая работает поверх k8s. первый вариант для тех, кто хочет использовать k8s для деплоя приложений. второй вариант больше всего подходит для тех, у кого классический deploy.
Rustam
а в чем принципиальное отличие k8s от docker swarm?
Dmitry
чет я полез читать про опенсвич, охуел и сбежал
Sergei
там модуль уже есть
много чего в опенстеке лучше б не было.
Sergei
господа, а есть ли здесь пользователи Ceph c RGW и большим количеством объектов? 100М+?
Илья
Тут нужно начинать с вопроса по проще. Есть ли тут пользователи у кого есть Ceph?
Anonymous
есть
Anonymous
Марк вроде юзает
Anonymous
или просто так вопросы по нему задает?
Anonymous
и Шизоид
Anonymous
ну
Anonymous
я же говорил
Михаил
только я синтезоид
Михаил
а шизоид это казах хохол из сисадминс)
Илья
Я вроде уже спрашивал, в качестве хранилища под базы оракла вариант использовать ceph экспортируя его как iscsi?
Dmitry
реально ли? да
Dmitry
подойдет ли? надо тестить
Илья
Про реальность нет вопросов
Sergei
Я вроде уже спрашивал, в качестве хранилища под базы оракла вариант использовать ceph экспортируя его как iscsi?
ну вы еще какой-нибудь уровень абстракции наверните, будет еще лучше работать :)
Илья
Есть про производительность
Anonymous
😊
Илья
Да просто хочется не покупать больше большие и дорогие схд
Илья
Да, я сусе и имею ввиду