Ivan
мне кажется можно разнести крашмапом данные так, чтоб при падении шасси можно было работать.
Д
один в 220 смотрит вторйо в инвертор
Ivan
но это конечно не очень надежно
Ivan
нужно 3 шасси
Д
вооот
Д
это я понял уже давно
Д
но 3 шасси не купят
Д
так бы было идеально и я бы с ceph остался
Д
вот по этому смотрю в сторону репликации
Д
а так сейчас получается, электричество отключают 10 минут и все рухнуло.
Д
и второй шасси не спасает соответственно.
Сергей
вот по этому смотрю в сторону репликации
а как у вас с нагрузкой? 4 ноды во втором шасси смогут принять всю нагрузку с шасси, которое упало/упадёт?
Д
Это нужно будет учесть я уже подумал про это, но мне важны критикал ресурсы. остальное подождать может
Д
так то должно хватать
Д
Сергей
Это нужно будет учесть я уже подумал про это, но мне важны критикал ресурсы. остальное подождать может
тогда делайте 8 узлов, и добавляйте QDevice для кворума. Я так понимаю что вы вручную будете мигрировать когда придёт сигнал о пропаже питания?
Ivan
как быть с данными которые не успели приехать по репликации ?
Д
Qdevice 3 физ машинка?
Сергей
а автоматически они не поднимутся разве? если будут реплицироваться?
чтобы автоматически они поднялись (точнее чтобы не упали) - нужен HA и общее хранилище. А у вас будет реплика в любом случае отставать на какое-то время
Д
если еще будет пара полок, вопрсо с HA можно будет решить?
Д
получается что на полке тоже должен быть zfs?
Сергей
получается что на полке тоже должен быть zfs?
есть вроде решения, когда делают и ha для zfs. у вас же будет в каждом шасси отдельная полка для хранилища?
Сергей
https://github.com/ewwhite/zfs-ha/wiki
Д
вообще планируется взять вот такие
Д
https://server19.ru/catalog/19_rn2-ss12/rn2ss12r/
Сергей
Qdevice 3 физ машинка?
не обязательно. можно виртуалку
Д
ну так если виртуалка окажется на шасси где отключится питание
Д
все пропало
Д
при потери электрики железно 4 ноды падают
Сергей
при потери электрики железно 4 ноды падают
я вот даже сейчас не скажу - если бы у вас был полноценный HA и общее хранилище, то как переживёт кластер падение 5 нод из 9 и что будет с теми ВМ, которые вы назначите как HA. есть эмулятор ha в проксе, поставьте его - изучите
Сергей
https://server19.ru/catalog/19_rn2-ss12/rn2ss12r/
тут у вас zfs не получится просто так поднять на этом хранилище
Д
из за рейд котроллера?
Д
ну тогда как вариант делать из каких то нод общее хранилище
Сергей
из за рейд котроллера?
её можно по FC подключить к вашим блейдам?
Д
у нас 10
Д
по ним через 10 коммутатор да
Д
то есть соединить все 10G можно
Д
из за этих интерфейсов в частности и смотрим в сторону этих полок
Сергей
а в шасси нет других интерфейсов для подключения дисковых полок?
Д
походу нет
Сергей
ну тогда как вариант делать из каких то нод общее хранилище
если полки можно подключить к одному из блейдов по FC, то можно в каждом шасси один из блейдов сделать сервером для общего хранилища.
Сергей
а как диски сейчас к блейдам подключены?
Д
вы про сетевое хранилище?
Д
пока не знаю это впланах
Сергей
вы про сетевое хранилище?
я про то, что можно полку подключить к одному из блейдов и один из блейдов будет по сути - сервером, который будет раздавать общее хранилище другим серверам в этом же шасси и через сеть
Сергей
а что это за блейды, неужто у них нет интерфейсов для подключения полок?
Д
ну вот этот сервак
Д
https://www.dell.com/ly/business/p/poweredge-c6220-2/pd
Сергей
https://www.dell.com/ly/business/p/poweredge-c6220-2/pd
так у вас там можно 24 диска подключить (SATA/SAS), зачем вам отдельная хранилка?
Д
там и стоят сейчас диски ssd в ceph
Д
по 480
Сергей
ну так и превратите один из блейдов на каждом шасси в NAS, который будет отдавать общее хранилище в кластер. А между собой эти NAS можно синхронизировать. Я выше ссылку давал ZFS HA
Сергей
ну так и превратите один из блейдов на каждом шасси в NAS, который будет отдавать общее хранилище в кластер. А между собой эти NAS можно синхронизировать. Я выше ссылку давал ZFS HA
для такого NAS можно и оптан купить для ускорения. А на остальных блейдах оставить по одному/паре ssd небольшого размера для размещения самого pve.
Д
согласен
Д
читаю
Сергей
читаю
есть ещё проект esos. который также умеет делать программные хранилки. Сделан на основе linux, внутри себя тоже умеет zfs.
Сергей
и у вас насколько я понимаю сетевая на 10гбит/с - двухпортовая?
Д
да
Сергей
да
значит можно сделать бондинг и получить 20гбит/с для раздачи shared storage
Д
думаю что да
Ivan
а каким способом можно понять реальный размер сектора ssd накопителя ?
Сергей
я думаю что можно не заморачиваться и просто ставить ashift=12
Ivan
уверен что врут
Ivan
512 байт пишут
Ivan
вот думаю что 8к реально
Ivan
во всяком случае читал, что так многие производители домашних ссд делают
Ivan
как бы это на практике быстро чекнуть ?
Сергей
как бы это на практике быстро чекнуть ?
короче я перечитал архивные сообщения в этой группу и думаю что для ссд можно спокойно ставить 13
Сергей
жаль что я свой пул собрал уже после того как это обсуждалось)
Сергей
и у меня осталось 12. для nvme
Ivan
fio на устройство
я подметил, что чем больше блок пишешь, тем производительнее запись. самые выигрышные размеры 32М-64М.
Ivan
или я что-то не так делаю ?
Сергей
или я что-то не так делаю ?
в реальной нагрузке очень редко блоки записываются с таким размером
Сергей
я бы тестировал то, что будет использоваться более чем в 80-90% случаев