@kubernetes_ru

Страница 378 из 958
Сергей
10.01.2018
18:26:22
чет у них вообще плохо все продается

)

Paul
10.01.2018
18:26:42
Сергей
10.01.2018
18:26:56
ни в коем случае.
для прода - да

Google
Сергей
10.01.2018
18:27:10
как и вообще желание сeph поселить на тех же нодах, где и кубер

Dmitry
10.01.2018
18:28:01
как и вообще желание сeph поселить на тех же нодах, где и кубер
Но ceph можно мигрировать при включении прода.

Sergey
10.01.2018
18:28:03
как и вообще желание сeph поселить на тех же нодах, где и кубер
действительно, где же это видано - колоцировать сторадж и вычисления!

ой, хадуп есть, ну это фигня

Dmitry
10.01.2018
18:28:33
Но ceph можно мигрировать при включении прода.
и если он стабилен то нормальная стратегия гибкости

Сергей
10.01.2018
18:28:41
действительно, где же это видано - колоцировать сторадж и вычисления!
ты когда-то видет поведение osd при крупном ребалансе?

когда на ноде с 128 гигов паняти память заканчивается

Сергей
10.01.2018
18:28:59
ну я не про школьника

а про то, что osd на ребалансе хорошо кушает память, и чем больше данных надо отребалансить - тем больше кушается память

Paul
10.01.2018
18:30:05
как и вообще желание сeph поселить на тех же нодах, где и кубер
у меня так и живет. но у меня нагрузки практически нет

Сергей
10.01.2018
18:30:26
Let Eat
10.01.2018
18:30:51
а про то, что osd на ребалансе хорошо кушает память, и чем больше данных надо отребалансить - тем больше кушается память
В storageos диски не разбивают , а льют целиком на N машин, от того и ребалансить приятнее. Кто-нибудь пробовал?

Google
Dmitry
10.01.2018
18:30:54
ну так о том и речь
как оно кушает память? на чем оно написано, кстати? ceph

Sergey
10.01.2018
18:31:17
и что? 1) придумали сигруппы, чтобы лимитировать память (и остальные ресурсы) расходуемые разными приложениями. 2) если недостаточно сигрупп - придумали хардварную виртуализацию. и в ней есть возможность лочить память на старте машины так, что НИКОГДА физические страницы не смогут оверлапиться между машинами 3) с точки зрения расхода сети - придумали tc, который тоже замечательно работает на TCP-нагрузке (а ceph работает по TCP)

Sergey
10.01.2018
18:31:49
нынче машины железные чересчур жирноватые выходят, чтобы выделять отдельные железки на "сеф онли"

Sergey
10.01.2018
18:32:24
вышел за переделы сигруппы - пришел оом, оно надо на осд?
я вас удивлю, но оом придет и когда память целиком кончится

Dmitry
10.01.2018
18:32:28
Имхо, с точки зрения операций, риск только в потенциальной невозможности миграции на свежеподнятные сторадж ноды... а так стратегия мне видится нормальной... Сидим на нодах кубера пока безопасно. потом растем - перевозим сеф на другие серваки а на кубере вырубаем. ну или просто мониторы оставляем.

Sergey
10.01.2018
18:32:39
Проблема в том, что если OSD словит OOM все совсем разваливается , говорят вплоть до порчи данных
если софт корраптит данные на ООМ - этот софт нельзя использовать. вообще.

это не сторадж, это хуёрадж

я правда не ломал сеф синхронными оомами всех его нод

Сергей
10.01.2018
18:33:00
я вас удивлю, но оом придет и когда память целиком кончится
когда у тебя сигруппа с планкой по памяти и свопу, то по выбиранию лимитов приходит оом и клияет процесс

не специально

я вот посчитал что засунуть его в lxc и сигруппой память ограничить - это хорошая идея

оказалось нихуя

Sergey
10.01.2018
18:33:55
Let Eat
10.01.2018
18:34:10
действительно, где же это видано - колоцировать сторадж и вычисления!
Имеет смысл если можно отдать вычисления поближе к данным, как в хадупе. Пример не совсем подходящий для цеф, т.к. там данные вообще везде , да и спросить вменяемо что-где нельзя.

Google
Sergey
10.01.2018
18:34:28
ее просто больше. а, ну сеф (или другой софт) может еще вести себя как мудак и пытаться смотреть в общесистемные цифры пытаясь понять, сколько ж можно записать

Сергей
10.01.2018
18:34:38
физическая память делает ровно точно так же.
ну так osd вообще прожорлив к памяти на ребалансах, а тут еще его ограничивать и ускорять наступление кромешнего пиздеца

Dmitry
10.01.2018
18:34:38
всем "you are welcome" как говориться...

Let Eat
10.01.2018
18:35:20
я вас удивлю, но оом придет и когда память целиком кончится
Память закончится раньше, если на ноде еще и приложения. А при неаккуратных лимитах, закончится еще и без всяких ребалансов и не в пользу ОСД :)

Sergey
10.01.2018
18:35:20
ну так osd вообще прожорлив к памяти на ребалансах, а тут еще его ограничивать и ускорять наступление кромешнего пиздеца
купите больше памяти и аллоцируйте сефу столько, сколько ему нужно. серьезно, если в типовом сервере 512 гб рам, 56 ядер и 8 ссд - всю такую ноду выделять на сеф?

иметь на железной машине очень тонкий хост и пару квмных машин, одну для сефа, другую для k8s - вполне ок.

если это не NVMe, то даже потери производительности незначительны. сеф же наоборот бесплатно помещается в одну нума-ноду и меньше дёргается.

Let Eat
10.01.2018
18:37:57
иметь на железной машине очень тонкий хост и пару квмных машин, одну для сефа, другую для k8s - вполне ок.
Вы делали замечание относительно rook, оно не про вм :) против нарезания на вм железного монстра никто как раз не выступает :)

Сергей
10.01.2018
18:39:49
это все виляет

Sergey
10.01.2018
18:40:15
ну опять же - вопрос же какие ноды, какая сеть, сколько банально дисков и какого объема
нет, постойте. если эта память цефу нужна - то ее НЕЛЬЗЯ забивать приложениями. вообще нельзя.

если не нужна - то не нужна.

Сергей
10.01.2018
18:41:19
короче давай так, опыт что был, 128 гигов памяти и порядка 100 терабайт на ноду дисков (это рав), таких нод было 5

Sergey
10.01.2018
18:41:21
калькуляция расхода памяти цефом до блюстора-то была той еще задачей, а теперь вообще хуй угадаешь. у меня была инсталляция, в которой на репликации одного радос-объекта (одного, Карл!) осд поедала 64 гб рам и благополучно умирала.

что больше говорит о цефе, кстати, чем о чем-либо еще :)

Сергей
10.01.2018
18:41:50
при наполнении ноды на так 60% и вырубании одной - на сотальных на ребалансе осд отьели всю память

Google
Сергей
10.01.2018
18:42:18
сеть в бонде две карты по 10Г

все было бы норм с цефом, даже учесть что оно всю память сожрало, но при ребалансе посыпалось так процентов 5 дисков

Sergey
10.01.2018
18:42:50
вы меня напугать-то чем хотите? какая разница, чем память ограничена сверху - гипервизором или физическим размером планок?

Сергей
10.01.2018
18:42:55
и тогда кластер развалился вообще

я не вас я просто опыт

Sergey
10.01.2018
18:43:13
5% дисков насмерть - оно и без ребаланса покорраптит данные

Сергей
10.01.2018
18:43:24
вопрос не в ораничении, а в совместном использовании этой памяти

Sergey
10.01.2018
18:43:39
так не используйте совместно страницы памяти.

убить ШИНУ памяти сефом крайне сложно

Admin
ERROR: S client not available

Sergey
10.01.2018
18:43:58
я даже не знаю как этого добиться

Let Eat
10.01.2018
18:44:27
Короче цеф херня, если нет требований чтобы один вирт диск был больше размеров ноды - drbd

Sergey
10.01.2018
18:44:39
хотя мб щас чот поменялось

Сергей
10.01.2018
18:44:49
ну я бы в нагруженном проекте с большим объйомов данных не запукал бы цеф на тех же нодаг де и кубер

ну вот я такой

Let Eat
10.01.2018
18:45:35
а вот с ним я какашек накушался больше, надо сказать
А чего он? В active passive простой как палка

Сергей
10.01.2018
18:45:44
я же никого не зставляю так делать, каждый волен сам решать)

Sergey
10.01.2018
18:45:50
ну я бы в нагруженном проекте с большим объйомов данных не запукал бы цеф на тех же нодаг де и кубер
есть 256 гб рамы на машине, нагрузочные тесты убитого кластера показали потребление сефом памяти в районе 50 гбайт. выделяете виртуалке с сефом внутри 64, лочите память на старте, радостно живете.

Google
Сергей
10.01.2018
18:46:32
сколько реплик

это же тоже влияет

Sergey
10.01.2018
18:46:51
ну отлично, сколько данных было в кластере цефа, какой прогноз по их росту?
а теперь выше - какая разница, что вас ограничивает - железный объём памяти или то что гипервизор разрешил взять?

так можно сказать что пока нет бесконечного объема памяти, сеф нельзя запускать

Сергей
10.01.2018
18:47:28
а теперь выше - какая разница, что вас ограничивает - железный объём памяти или то что гипервизор разрешил взять?
я не про ограницения, а про то, что бы на ту память что есть у цефа никто не посягал больше

Sergey
10.01.2018
18:47:34
А чего он? В active passive простой как палка
простой, но однажды я отведал мегатонны крови, когда был молод и юн: https://toster.ru/q/39291

https://libvirt.org/formatdomain.html When set and supported by the hypervisor, memory pages belonging to the domain will be locked in host's memory and the host will not be allowed to swap them out, which might be required for some workloads such as real-time

Сергей
10.01.2018
18:48:42
окей вы ограничили цефу память на 64 гига из 50 нужных окей, а теперь вам надо отслеживать то, что бы запущенные процессы все остальные не скушали памяти больше, чем осталось после отргызания для цефа

Sergey
10.01.2018
18:49:08
я еще раз задам вопрос (простите уже за тон), что в слове "лочите" вам непонятно?

эта память в RES процесса

ее НЕЛЬЗЯ использовать для чего-то еще. НИКАК. это НЕВОЗМОЖНО.

Сергей
10.01.2018
18:49:28
а в среде микросервисов денамичных, который пачками порождаются и ибиваются - это уже совсем другая задача

Sergey
10.01.2018
18:52:33
http://man7.org/linux/man-pages/man2/mlock.2.html

Сергей
10.01.2018
18:54:03
ну и?

если процессу во время рабоыт потребуется выделить дополнительной памяти, а ее нет?

Sergey
10.01.2018
18:55:23
выделить, если оверкоммит включен - обычно хоть петабайт

Сергей
10.01.2018
18:55:41
Sergey
10.01.2018
18:55:47
а оверкоммит почти всегда включен.

Сергей
10.01.2018
18:56:01
но он не бесконечный

Sergey
10.01.2018
18:56:02
у меня серьезное опасение, что вы не понимаете, что такое резидентная память процесса

Сергей
10.01.2018
18:56:05
и с ограничениями

Страница 378 из 958